LLM, Gemini 모델, Vertex AI 알아보기

대규모 언어 모델(LLM)은 대량의 텍스트 데이터에 대해 학습된 딥 러닝 모델입니다. LLM은 언어를 번역하고, 텍스트를 요약하고, 이미지의 물체와 텍스트를 인식하고, 검색엔진 및 추천 시스템을 보완할 수 있습니다.

Google은 멀티모달 사용 사례를 위해 설계된 생성형 AI 모델 제품군 Gemini를 제공합니다. 이미지, 동영상, 텍스트를 포함하여 여러 모달리티에서 정보를 처리할 수 있습니다.

더 많은 학습 리소스를 보려면 생성형 AI GitHub 저장소를 둘러보세요. Google 데이터 과학자, 개발자, Developer Advocate가 이 콘텐츠를 관리합니다.

시작하기

다음은 처음 시작하는 데 도움이 되는 몇 가지 노트북, 튜토리얼, 기타 예시입니다. Vertex AI는 Python용 Vertex AI SDK를 사용하는 Google Cloud 콘솔 튜토리얼 및 Jupyter 노트북 튜토리얼을 제공합니다. Colab에서 노트북 튜토리얼을 열거나 원하는 환경으로 노트북을 다운로드할 수 있습니다.

Gemini 시작하기

Gemini 시작하기

Gemini 모델은 Google AI에 의해 개발된 획기적인 멀티모달 언어 모델로 이미지 및 비디오를 포함한 다양한 데이터 형식에서 의미 있는 통계를 추출할 수 있습니다. 이 노트북은 멀티모달 프롬프트를 사용하여 다양한 사용 사례를 살펴봅니다.

Jupyter 노트북: 이 튜토리얼을 Jupyter 노트북으로 실행할 수 있습니다.
Colab에서 실행 | GitHub에서 보기

Vertex AI Vertex AI Studio 시작하기

GenAI Studio 로고

API 또는 Python용 Vertex AI SDK 없이 Google Cloud 콘솔을 통해 Vertex AI Studio를 사용합니다.

GitHub에서 보기

프롬프트 설계를 위한 권장사항

Model Garden 로고

모델의 응답 품질을 개선하기 위해 프롬프트를 설계하는 방법을 알아봅니다. 이 튜토리얼에서는 몇 가지 권장사항을 포함하여 프롬프트 엔지니어링의 핵심요소에 대해 설명합니다.

Jupyter 노트북: 이 튜토리얼을 Jupyter 노트북으로 실행할 수 있습니다.
Colab에서 실행 | GitHub에서 보기

LangChain 🦜️🔗

LangChainPaLM 모델과 같이 LLM으로 구동되는 애플리케이션을 개발하기 위한 프레임워크입니다. PageRankChain을 사용하여 파일, 기타 애플리케이션 및 API 데이터와 같은 외부 데이터를 LLM으로 가져옵니다.

RangeChain 및 Vertex AI에서의 작동 방식에 대한 자세한 내용은 공식 ChainChain 및 Vertex AI 문서를 참조하세요.

Gemini, 벡터 검색, LangChain을 사용하여 멀티모달 검색 증강 생성(RAG)

Gemini, 벡터 검색, LangChain을 사용하여 멀티모달 검색 증강 생성(RAG)

검색 증강 생성(RAG)은 LLM에서 외부 데이터에 액세스할 수 있게 하는 널리 사용되는 패러다임이 되었으며 할루시네이션을 완화하기 위한 그라운딩 메커니즘으로도 사용되고 있습니다.

텍스트와 이미지가 모두 포함된 금융 문서에서 Q&A를 수행하는 멀티모달 RAG를 수행하는 방법을 알아봅니다.

Jupyter 노트북: 이 튜토리얼을 Jupyter 노트북으로 실행할 수 있습니다.
Colab에서 실행 | GitHub에서 보기

LangChain 🦜️🔗 및 BigQuery 벡터 검색을 사용하여 Q&A 생성 증강

LangChain 🦜️🔗 및 BigQuery 벡터 검색을 사용하여 Q&A 생성 증강

문서와 같은 외부 데이터 소스로 LLM 지식을 보강하여 LLM 응답을 개선하는 질의 응답(QA) 시스템을 구현하는 방법을 알아봅니다. 이 예시에서는 텍스트용 Vertex AI Gemini 1.0 Pro, 텍스트용 임베딩 API, BigQuery 벡터 검색, LangChain을 사용합니다.

Jupyter 노트북: 이 튜토리얼을 Jupyter 노트북으로 실행할 수 있습니다.
Colab에서 실행 | GitHub에서 보기

다음 단계