목록Deep Learning (41)
Patrick's 데이터 세상
2022년에 사내에서 국내 유통대기업과의 공동 연구로 진행했던 프로젝트입니다. 해당 프로젝트에 대해 공동 연구를 진행하고 나서 보유하고 있는 데이터와 논문을 활용하여 모델을 다시 재구현하는 것이 목적이었습니다. MBTI를 ST, NT, SF, NF 총 4개로 분류하여 성격 유형으로 나누고 각각의 문체를 특성으로 하여 시즌 정보와 MBTI 성격 유형을 입력하면 앱푸쉬 광고 문자를 생성하는 모델을 만드는 태스크입니다. 예시 원문 시즌 정보 성향 모델 생성 광고 문구 10월이니까 1OOO포인트♬ 브랜드별 할인 받고 1천P 적립까지 더! 알뜰하게 가을 옷 준비하려면 터치▶ 가을맞이 SF 10월 OOOOO 포인트 혜택 도착♥ 브랜드별 할인에 1천P 적립까지 다 받아 알뜰하게 쇼핑하자! 👉🏻 참고 https://t..
LangChain은 LLM에서 구동되는 APP을 개발하기 위한 프레임워크입니다. LangChain에서 제공되는 라이브러리를 활용하여 쉽게 LLM 기술들을 활용할 수 있습니다. 현재는 Javascript, Python으로 구분해서 관리되고 있고 Python으로 설명드리겠습니다. LangChain은 크게 두 가지 원칙에 기반하여 작성되었습니다.Be data-aware : 언어 모델을 다른 데이터 원본에 연결합니다.Be agentic : 언어 모델이 해당 환경과 상호 작용할 수 있도록 허용합니다.예제를 통해 사용법에 대해 알아보겠습니다. 0. 패키지 설치!pip install openai !pip install langchainllm 모델 openai, langchain 관련!pip install google..
RNN Recurrent Neural Network LSTM Long Short Term Memory RNN의 장기 의존성을 보완하기 위해 나온 개념 Ct : t시점의 셀 상태 RNN과 비교하여 긴 시퀀스 입력을 처리하는데 탁월 입력 게이트 현재 정보를 기억하기 위한 게이트 삭제 게이트 기억을 삭제하기 위한 게이트 출력 게이트 현재 시점 t의 x값과 이전 시점 t-1의 은닉 상태가 시그모이드 함수를 지닌 값. 현재 시점 t의 은닉 상태 결정. Seq2Seq 번역기에서 대표적으로 사용되는 모델. 한계점 Attention 디코더가 고정된 길이의 문맥 벡터를 참고하는 것이 아닌 매번 소스 문장에서의 출력, 각각의 hidden state 값 전부를 입력하는 아키텍쳐. Dot-Product Attention 1)..
딥 러닝 Deep Learning 머신 러닝의 특정한 한 분야 인공 신경망(Artificial Neural Network)의 층을 연속적으로 쌓아 올려 데이터를 학습하는 방식 퍼셉트론 Perceptron 딥 러닝 신경망의 원리는 인간의 뇌 구조인 뉴런을 본떠서 만든 개념 미국의 신경생물학자인 프랑크 로젠블라트가 1957년에 제안한 초기 형태의 인공 신경망. 다수의 입력으로부터 하나의 결과를 내보내는 알고리즘. 실제 뇌에서는 가지돌기에서 신호를 받아들이고, 축삭돌기를 통해 다른 뉴런으로 신호를 전달. x : 입력 값, w : 가중치 weight, y : 출력 값, 파란 원 : 뉴런 축삭돌기 - 가중치 단층 퍼셉트론 Single-Layer Perceptron 입력층, 출력층 두 단계로만 이루어진 퍼셉트론 논..
머신러닝 Machine Learning 경험을 통해 자동으로 개선하는 컴퓨터 알고리즘 연구 핵심 : 표현, 일반화 기존 프로그래밍의 한계 작업 : 주어진 사진으로부터 고양이 사진인지 강아지 사진인지 판별하는 일 def prediction(이미지 as input): 어떻게 코딩해야하지? return 결과 머신러닝 모델 훈련 과정 머신러닝 모델 Task 분류(Classification) 회귀(Regression) 분류(Classification) 이진 분류(Binary Classification) 주어진 입력에 대해서 두 개의 선택지 중 하나의 답을 선택 ex) 시험 성적표를 보고 합격, 불합격 판단, 메일을 보고 일반 메일, 스팸 메일 판단 등 다중 클래스 분류(Multi-class Classificati..
단어 표현 Word Representation 희소 표현 Sparse Representation 분산 표현 Distributed Representation 희소 표현 Sparse Representation one-hot encoding 단어를 0과 1로 단어의 집합만큼 표현하는 방법 Code from tensorflow.keras.preprocessing.text import Tokenizer from tensorflow.keras.utils import to_categorical text = "나랑 점심 먹으러 갈래 점심 메뉴는 햄버거 갈래 갈래 햄버거 최고야" tokenizer = Tokenizer() tokenizer.fit_on_texts([text]) print('단어 집합 :',tokenize..