Gemini 2.5 Pro 추론 모델 API 빠른 시작
Python에서 W&B 로깅과 함께 Gemini 2.5 Pro API를 설정하는 빠른 시작 튜토리얼. 이 글은 AI 번역 문서입니다. 오역이 있을 수 있으니 댓글로 알려 주세요.
Created on September 15|Last edited on September 15
Comment
이 튜토리얼은 Gemini 2.5 Pro Experimental API를 처음 사용하는 분들을 위한 빠른 시작 가이드입니다. 특히 Python 환경을 중심으로 설명합니다. 먼저 다음 내용을 확인한 뒤, 이어지는 응답에서 우리의 GPT-4.5 빠른 시작그래서 지금이야말로 Google의 가장 강력한 모델 설정 과정을 함께 살펴보기 좋은 시점이라고 판단했습니다.
곧 작업별 가이드를 이어서 제공하겠습니다. 그때까지는 이 글만으로도 바로 탐색을 시작하실 수 있을 것입니다.
또, 단계별로 진행하기 전에 먼저 사용해 보고 싶다면 이 Colab에서 전체 예제를 실행할 수 있습니다:
다음 내용을 다룹니다:
목차
Gemini 2.5 Pro 간단 소개Gemini 2.5 Pro API 키 받기Python에서 Gemini 2.5 Pro 빠른 시작 튜토리얼1단계: Gemini 2.0과 W&B Weave 설치2단계: 라이브러리를 import하고 Gemini 2.5 API 키를 전달하세요3단계: API 키 추가하기4단계: 쿼리 추가하기5단계: Gemini 2.5 Pro 모델 선택하기6단계: Weights & Biases 프로젝트 이름 지정하기7단계: Gemini 2.5 Pro로 텍스트 생성하기(추론 출력 확인 포함)결론
정말 이제 막 시작한다면 그리고 아직 로컬 환경에서 Python을 실행할 준비가 되어 있지 않다면, 제가 간단한 튜토리얼을 준비했습니다. 여기 몇 분이면 바로 시작할 수 있도록 도와드립니다.
💡
준비되셨나요? 바로 시작해 봅시다.
Gemini 2.5 Pro 간단 소개
Gemini 2.5 Pro Experimental은 현재 Google의 가장 발전된 모델로, 추론, 코딩, 복잡한 과제 해결 전반에서 뛰어난 성능을 보입니다. 이 모델은 스스로 사고하는 “thinking model”로, 응답 과정에서 체계적으로 추론하고 여러 모달리티에 걸친 복합적인 지시를 단계적으로 처리할 수 있습니다.
주요 업데이트와 기능은 다음과 같습니다:
- 고급 추론: 수학, 과학, 논리 벤치마크에서 최첨단 성능.
- 코드 생성: 웹 앱 제작, 코드 리팩터링, 에이전트 스타일 작업 수행에 뛰어납니다.
- 멀티모달 입력: 텍스트, 이미지, 오디오, 비디오 입력을 지원합니다.
- 텍스트 출력: 구조화된 출력, 함수 호출, 코드 실행을 지원합니다.
- 도구 통합: Google 검색 같은 도구를 호출하고, 함수를 실행하며, 복잡한 워크플로를 지원합니다.
- 컨텍스트 윈도우: 입력 토큰 100만 개, 출력 토큰 6만 4천 개.
2025년 3월 25일, LMarena 리더보드 최상단에 오르며 공개되었습니다:

Gemini 2.5 Pro API 키 받기

그다음 “Explore models in Google AI Studio”를 클릭하세요. 다음 페이지로 이동합니다:

여기에서 왼쪽 상단의 “Get API key”를 클릭하세요.
그리고 “Create API key”를 클릭하세요.

기존 프로젝트를 선택하거나 새로 만들면 준비 완료입니다:

이제 준비가 되었으니, 바로 API 사용을 시작해 봅시다.
Python에서 Gemini 2.5 Pro 빠른 시작 튜토리얼
설정을 마쳤다면 새 노트북을 열고 아래 내용을 따라 진행하세요
1단계: Gemini 2.0과 W&B Weave 설치
Weave는 Weights & Biases가 만든 강력한 로깅 및 관측 도구입니다. Python 함수의 입력, 출력, 메타데이터를 자동으로 수집하고, 풍부한 UI에서 손쉽게 검사할 수 있게 해줍니다. 이는 모델이 왜 그렇게 응답했는지를 이해하는 것이 무엇을 응답했는지만큼 중요한 LLM 워크플로에서 특히 유용합니다.
함수에 @weave.op() 데코레이터만 추가하면 Weave가 각 호출을 자동으로 기록합니다. 보낸 프롬프트, 모델의 응답, 그리고 그 사이의 중간 단계까지 모두 캡처됩니다. 그런 다음 W&B 프로젝트에서 Weave 인터페이스를 열어 결과를 탐색하고, 실행을 비교하며, 각 출력 뒤에 있는 추론 과정을 평가할 수 있습니다.
이는 프롬프트를 반복 개선하거나 모델 동작을 디버깅할 때, 그리고 운영 환경에서 Gemini 2.5의 성능이 시간이 지나며 어떻게 변하는지 추적할 때 Weave가 특히 유용하다는 뜻입니다.
💡
코드:
!pip install -q -U google-generativeai!pip install --upgrade weave
주피터 셀을 실행하면 [ ] 사이에 별표([*])가 채워지는 것을 볼 수 있습니다. 이는 셀이 실행 중이라는 뜻이며, 계속하려면 별표(*)가 숫자로 바뀔 때까지 기다리세요..
이제 필요한 설치를 마쳤으니, 실제로 도구를 사용하도록 import 해 봅시다.
파이썬이 처음이라면, 라이브러리를 설치한다는 것은 간단히 그 코드를 가져오는 일입니다. 그리고 import 하면 그 라이브러리를 사용할 수 있게 됩니다.
💡
2단계: 라이브러리를 import하고 Gemini 2.5 API 키를 전달하세요
다음 단계는 필요한 라이브러리를 import하고, Gemini 2.5 Pro에 접근할 수 있도록 Google에 API 키를 전달하는 것입니다.
이 블록에서는 설치한 라이브러리와 함께 몇 가지 추가 라이브러리도 import합니다. 다음과 같습니다:
- weaveW&B Weave에 프롬프트와 응답을 기록하기 위해서입니다.
- generativeai: Google Generative AI 라이브러리입니다. 여러분이 여기에 온 이유겠죠!
코드는 다음과 같습니다:
import google.generativeai as genaiimport weavedef format_res(text):return text.replace('•', ' *')
3단계: API 키 추가하기
이제 Gemini 2.5가 당신의 API 키를 인식하도록 설정하면 됩니다.
보안을 위해 하드코딩하지 않고, 키를 직접 붙여넣도록 요청할게요. 확인용으로 키가 출력되지만, 공유되거나 공개된 환경에서 작업 중이라면 해당 출력 라인은 자유롭게 제거하세요.
gemini_api_key = input ("What is your Gemini API key? :")genai.configure(api_key=gemini_api_key)print(gemini_api_key)
4단계: 쿼리 추가하기
이제 Gemini가 생성할 내용을 추가해 봅시다:
query = input ("What content would you like me to produce ? :")print(query)
코드를 직접 수정하지 않고도 새 프롬프트를 쉽게 실험할 수 있습니다.
5단계: Gemini 2.5 Pro 모델 선택하기
이 글을 작성하는 시점 기준으로 최신 실험적 모델을 사용하겠습니다:
model = genai.GenerativeModel('gemini-2.5-pro-exp-03-25')
6단계: Weights & Biases 프로젝트 이름 지정하기
이제 Weights & Biases 프로젝트 이름을 지정할 차례입니다. 이렇게 하면 모든 트레이스와 로그를 체계적으로 정리할 수 있습니다.
project_name = input("What would you like to name your Weave project? :")wandb_name = project_name.replace(" ", "-") # Replace spaces with dashes in nameweave.init(wandb_name)
셀 실행이 끝날 때까지 기다리세요(별표가 숫자로 바뀌는지 확인).
다음과 같은 결과가 표시됩니다:

7단계: Gemini 2.5 Pro로 텍스트 생성하기(추론 출력 확인 포함)
이제 Gemini 2.5 Pro가 실제로 어떻게 작동하는지 확인하고, 프롬프트를 어떻게 사고하며 처리하는지도 살펴보겠습니다.
모델이 추론 단계를 출력하도록 명시적으로 지시해야 하며, 이를 프롬프트에 추가하겠습니다.
4단계에서 입력했던 쿼리에, 답변하기 전에 단계별로 사고하라는 지시를 덧붙여 강화하겠습니다. 이렇게 하면 Gemini의 내부 논리가 드러나며, Weave에서 직접 확인할 수 있습니다.
@weave.op()def generate_text_with_gemini(model, query):# Append reasoning promptenhanced_query = (query.strip() +"\n\nPlease think step-by-step and explain your reasoning before producing the final output.")response = model.generate_content(enhanced_query)return response.textnum_responses = 1 # Set how many completions you'd likefor i in range(num_responses):response_text = generate_text_with_gemini(model, query)print("=== Reasoning Trace ===\n")print(response_text.split("\n\n")[0]) # Likely where reasoning beginsprint("\n=== Full Output ===\n")print(format_res(response_text))
…다음과 같은 출력이 표시됩니다:

각 응답은 Weave에서 자동으로 추적됩니다. 프로젝트의 함수 탭에서 프롬프트와 Gemini의 전체 응답(내부 추론 포함)이 모두 기록된 것을 확인할 수 있습니다.
이는 Gemini 2.5가 답변을 어떻게 구성하는지 이해하는 데 특히 유용하며, 프롬프트 변형이나 실패 사례를 비교할 때도 도움이 됩니다.

관심 있다면 Weave의 “Summary” 섹션에서 우리 함수에 대한 더 많은 지표를 쉽게 확인할 수 있습니다.

결론
이 Gemini 2.5 Pro 튜토리얼을 끝까지 따라오며 Python에서 API를 다루는 방법에 대한 자신감을 얻었고, 모델 동작을 분석할 때 W&B Weave가 얼마나 유용한지도 확인하셨길 바랍니다.
곧 과제별 튜토리얼을 추가할 예정이며, 추론 체인, 코드 생성, 멀티모달 프롬프트를 위한 단계별 워크플로도 포함될 예정입니다.
그동안 댓글에 질문이나 아이디어를 자유롭게 남겨 주세요.
Add a comment