Introducing Claude 4
Vibe Check: Claude 4 Opus
이번 주는 정말 숨 가빴습니다. 저(Dan Shipper)는 Microsoft Build에 참석해 회사의 CTO인 Kevin Scott를 인터뷰했고, 뉴욕 타임즈에 저희의 펀드 조성 소식을 발표했으며, Google은 I/O 행사를 진행했고(이와 관련된 내용은 내일 Alex Duffy가 다룰 예정입니다), OpenAI는 Apple 디자이너 Jony Ive를 인수했고, 오늘은 Anthropic의 Code With Claude 행사에 와 있습니다. 솔직히 말하건대, 저는 이 모든 발전에 지쳤습니다.
손가락이 곧 떨어져 나갈 것 같고, 제 뇌는 GPT-2 수준의 지능으로 작동 중입니다.
하지만 오늘 새로운 Claude 모델이 출시되는 바, “현장 분위기 체크(vibe check)” 글을 쓰겠다는 제 약속을 지켜야만 했습니다. 그래서 여러분께 드디어 선보이는 Claude 4 Opus(Anthropic 내부 코드명 “Linen”)—Claude 3.7 Sonnet의 후속 모델—을 소개합니다. (게다가 음성 인식→텍스트 AI가 이 정도로 좋다면, 손가락도 필요 없지 않겠습니까?)
저는 Opus를 코딩, 글쓰기, 연구 등 다양한 과제에 적용해 보았습니다. 제 결론은 단 하나, Anthropic이 제대로 만들어냈다는 것입니다. 실제로 이 모델은 제가 사용해 본 어떤 모델—OpenAI의 o3도, Google의 Gemini 2.5 Pro도—결코 해내지 못했던 일들을 해냅니다.
- 먼저 Anthropic 공식 블로그를 번역이고 그 다음이 Every의 바이브 체크 글입니다.
2025년 5월 22일 • 읽는 데 5분
(이미지: Claude가 여러 작업을 병렬로 수행하는 일러스트)
오늘 우리는 코딩, 고급 추론, AI 에이전트 분야에서 새로운 기준을 세우는 차세대 Claude 모델인 Claude Opus 4와 Claude Sonnet 4를 소개합니다.
💡 함께 발표하는 내용
- 확장된 사고와 도구 사용(베타): 두 모델 모두 웹 검색(web search) 같은 도구를 사용하여 장시간 사고 과정을 거치는 동안 추론과 도구 사용을 번갈아 수행해 응답 품질을 높입니다.
- 신규 모델 기능: 두 모델은 여러 도구를 병렬로 사용할 수 있고, 지침을 더 정확히 따르며, 개발자가 로컬 파일 접근 권한을 부여할 때 핵심 사실을 추출·저장해 연속성을 유지하고 암묵 지식을 쌓는 메모리 기능이 크게 향상되었습니다.
- Claude Code 정식 출시: 연구 프리뷰 단계에서 받은 긍정적 피드백을 바탕으로, GitHub Actions를 통한 백그라운드 작업과 VS Code·JetBrains와의 네이티브 통합을 지원합니다. 편집 내용이 파일에 직접 표시되어 원활한 페어 프로그래밍을 가능하게 합니다.
- 새로운 API 기능: 코드 실행 도구, MCP 커넥터, 파일 API, 프롬프트를 최대 1시간 동안 캐시하는 기능 등 네 가지 신규 기능을 Anthropic API에 추가합니다.
- 하이브리드 모델 및 요금제: Opus 4와 Sonnet 4는 즉각 응답 모드와 확장 사고 모드를 제공하는 하이브리드 모델입니다. Pro, Max, Team, Enterprise 요금제에는 두 모델과 확장 사고 기능이 모두 포함되며, 무료 사용자도 Sonnet 4를 이용할 수 있습니다. 두 모델은 Anthropic API, Amazon Bedrock, Google Cloud Vertex AI에서 제공되며, 가격은 이전 모델과 동일합니다(Opus 4: 입력/출력 100만 토큰당 $15/$75, Sonnet 4: $3/$15).