목록전체 글 (176)
Patrick's 데이터 세상
ChatGPT는 GPT를 개발해 온 OpenAI에서 GPT-3.5와 GPT4를 기반으로 운영하는 대화형 인공지능 서비스이다. 제공되는 API 기능을 통해 개발자들이 편리하게 ChatGPT 모델의 추론 기능을 사용할 수 있다. 현재 사내 프로젝트의 일환으로 모델 학습 데이터의 레이블 정보를 ChatGPT API를 활용하여 구축하였다. 시스템 프롬프트와 유저 프롬프트에서 Few-Shot 방식을 이용한 instruct를 구조화하고 원하는 결과를 얻기 위해 Prompt adjust를 지속적으로 시도한 내용과 Andrew Ng 교수님의 ChatGPT Prompt Engineering for Developers 강의 내용 중 일부를 정리하려고 한다. 예시는 실제 프로젝트에서 사용했던 예시와 강의 예시 모두 사용하였..
마리아노 아나야의 파이썬 클린코드를 읽으며 정리해 두는 포스팅이다. 이미 알고 있는 내용이 많지만 유지보수, 애자일 개발을 좀 더 official 하게 skillup 하기 위해 정리해두려고 한다. 👉🏻 코드 포매팅 클린 코드라 함은 PEP-8 가이드라인을 지킨 띄어쓰기, 네이밍 컨벤션, 줄 길이 제한 등의 코딩 표준, 포매팅, 린팅 도구 등 레이아웃 설정과 같은 것 이상의 의미함. 클린 코드는 품질 좋은 소프트웨어를 개발하고, 견고하고 유지보수가 쉬운 시스템, 기술 부채를 피하는 것을 말한다. 프로젝트 코딩 스타일 가이드 준수 PEP-8 style ∙ 검색 효율성 : 코드에서 원하는 부분을 빠르게 검색. ex) keyword argument에 값을 할당할 때는 띄어쓰기 x, 변수에 값을 할당할 때는 띄어..
2022년에 사내에서 국내 유통대기업과의 공동 연구로 진행했던 프로젝트입니다. 해당 프로젝트에 대해 공동 연구를 진행하고 나서 보유하고 있는 데이터와 논문을 활용하여 모델을 다시 재구현하는 것이 목적이었습니다. MBTI를 ST, NT, SF, NF 총 4개로 분류하여 성격 유형으로 나누고 각각의 문체를 특성으로 하여 시즌 정보와 MBTI 성격 유형을 입력하면 앱푸쉬 광고 문자를 생성하는 모델을 만드는 태스크입니다. 예시 원문 시즌 정보 성향 모델 생성 광고 문구 10월이니까 1OOO포인트♬ 브랜드별 할인 받고 1천P 적립까지 더! 알뜰하게 가을 옷 준비하려면 터치▶ 가을맞이 SF 10월 OOOOO 포인트 혜택 도착♥ 브랜드별 할인에 1천P 적립까지 다 받아 알뜰하게 쇼핑하자! 👉🏻 참고 https://t..
해마다 삼성역 코엑스에서 진행하는 AI EXPO(국제 인공지능대전)에 5.11 목에 참석하였습니다. 국제인공지능대전(AI EXPO KOREA), 2023 (사)한국인공지능협회, ㈜서울메쎄, 인공지능신문이 주관하는 AI EXPO는 서울 COEX 3층 Hall D에서 5.10(수)~5.12(금) 총 3일간 진행되었고, 관람 시간은 10:00~17:00(입장 마감 16:30)입니다. 올해도 많은 관람객 및 바이어가 방문하여 인공지능 분야에 대한 인기가 꾸준히 많은 것을 알 수 있었습니다. 인공지능 기반의 제조/생산, 영상분석, 유통, 언어처리, 로봇, 데이터 구축 및 다양한 지식서비스를 제공하는 유망한 기업들이 참가하였습니다. 개인적인 체감으로는 영상 관련, 그리고 ChatGPT의 등장으로 작년보다 훨씬 많은..
LangChain은 LLM에서 구동되는 APP을 개발하기 위한 프레임워크입니다. LangChain에서 제공되는 라이브러리를 활용하여 쉽게 LLM 기술들을 활용할 수 있습니다. 현재는 Javascript, Python으로 구분해서 관리되고 있고 Python으로 설명드리겠습니다. LangChain은 크게 두 가지 원칙에 기반하여 작성되었습니다.Be data-aware : 언어 모델을 다른 데이터 원본에 연결합니다.Be agentic : 언어 모델이 해당 환경과 상호 작용할 수 있도록 허용합니다.예제를 통해 사용법에 대해 알아보겠습니다. 0. 패키지 설치!pip install openai !pip install langchainllm 모델 openai, langchain 관련!pip install google..
RNN Recurrent Neural Network LSTM Long Short Term Memory RNN의 장기 의존성을 보완하기 위해 나온 개념 Ct : t시점의 셀 상태 RNN과 비교하여 긴 시퀀스 입력을 처리하는데 탁월 입력 게이트 현재 정보를 기억하기 위한 게이트 삭제 게이트 기억을 삭제하기 위한 게이트 출력 게이트 현재 시점 t의 x값과 이전 시점 t-1의 은닉 상태가 시그모이드 함수를 지닌 값. 현재 시점 t의 은닉 상태 결정. Seq2Seq 번역기에서 대표적으로 사용되는 모델. 한계점 Attention 디코더가 고정된 길이의 문맥 벡터를 참고하는 것이 아닌 매번 소스 문장에서의 출력, 각각의 hidden state 값 전부를 입력하는 아키텍쳐. Dot-Product Attention 1)..