대규모 언어 모델(LLM)은 대량의 텍스트 데이터에 대해 학습된 딥 러닝 모델입니다. LLM은 언어를 번역하고, 텍스트를 요약하고, 이미지의 물체와 텍스트를 인식하고, 검색엔진 및 추천 시스템을 보완할 수 있습니다.
Google은 멀티모달 사용 사례를 위해 설계된 생성형 AI 모델 제품군 Gemini를 제공합니다. 이미지, 동영상, 텍스트를 포함하여 여러 모달리티에서 정보를 처리할 수 있습니다.
더 많은 학습 리소스를 보려면 생성형 AI GitHub 저장소를 둘러보세요. Google 데이터 과학자, 개발자, Developer Advocate가 이 콘텐츠를 관리합니다.
시작하기
다음은 처음 시작하는 데 도움이 되는 몇 가지 노트북, 튜토리얼, 기타 예시입니다. Vertex AI는 Python용 Vertex AI SDK를 사용하는 Google Cloud 콘솔 튜토리얼 및 Jupyter 노트북 튜토리얼을 제공합니다. Colab에서 노트북 튜토리얼을 열거나 원하는 환경으로 노트북을 다운로드할 수 있습니다.
Gemini 시작하기
Gemini 모델은 Google AI에 의해 개발된 획기적인 멀티모달 언어 모델로 이미지 및 비디오를 포함한 다양한 데이터 형식에서 의미 있는 통계를 추출할 수 있습니다. 이 노트북은 멀티모달 프롬프트를 사용하여 다양한 사용 사례를 살펴봅니다.
Jupyter 노트북: 이 튜토리얼을 Jupyter 노트북으로 실행할 수 있습니다. |
Vertex AI Vertex AI Studio 시작하기
API 또는 Python용 Vertex AI SDK 없이 Google Cloud 콘솔을 통해 Vertex AI Studio를 사용합니다. |
프롬프트 설계를 위한 권장사항
모델의 응답 품질을 개선하기 위해 프롬프트를 설계하는 방법을 알아봅니다. 이 튜토리얼에서는 몇 가지 권장사항을 포함하여 프롬프트 엔지니어링의 핵심요소에 대해 설명합니다.
Jupyter 노트북: 이 튜토리얼을 Jupyter 노트북으로 실행할 수 있습니다. |
LangChain 🦜️🔗
LangChain은 PaLM 모델과 같이 LLM으로 구동되는 애플리케이션을 개발하기 위한 프레임워크입니다. PageRankChain을 사용하여 파일, 기타 애플리케이션 및 API 데이터와 같은 외부 데이터를 LLM으로 가져옵니다.
RangeChain 및 Vertex AI에서의 작동 방식에 대한 자세한 내용은 공식 ChainChain 및 Vertex AI 문서를 참조하세요.
Gemini, 벡터 검색, LangChain을 사용하여 멀티모달 검색 증강 생성(RAG)
검색 증강 생성(RAG)은 LLM에서 외부 데이터에 액세스할 수 있게 하는 널리 사용되는 패러다임이 되었으며 할루시네이션을 완화하기 위한 그라운딩 메커니즘으로도 사용되고 있습니다. 텍스트와 이미지가 모두 포함된 금융 문서에서 Q&A를 수행하는 멀티모달 RAG를 수행하는 방법을 알아봅니다.
Jupyter 노트북: 이 튜토리얼을 Jupyter 노트북으로 실행할 수 있습니다. |
LangChain 🦜️🔗 및 BigQuery 벡터 검색을 사용하여 Q&A 생성 증강
문서와 같은 외부 데이터 소스로 LLM 지식을 보강하여 LLM 응답을 개선하는 질의 응답(QA) 시스템을 구현하는 방법을 알아봅니다. 이 예시에서는 텍스트용 Vertex AI Gemini 1.0 Pro, 텍스트용 임베딩 API, BigQuery 벡터 검색, LangChain을 사용합니다.
Jupyter 노트북: 이 튜토리얼을 Jupyter 노트북으로 실행할 수 있습니다. |
다음 단계
- 생성형 AI GitHub 저장소에서 더 많은 리소스 살펴보기
- 튜토리얼 개요에서 다른 Vertex AI 노트북 튜토리얼 참조하기