요즘 사람들이 많이 쓰는 AI 도구라는 게 있다.
ChatGPT.
Gemini.
Claude.
셋 다 비슷해 보인다.
질문하면 답해준다.
글을 써준다.
자료를 요약해준다.
코딩도 도와준다.
이미지와 문서도 읽는다.

“한국 사람들은 뭘 제일 많이 쓸까?”
“가격은 비슷한데 뭐가 제일 가성비 좋을까?”
“문맥 이해도, 추론력, 코딩, 멀티모달은 누가 더 강할까?”
그래서 이번 글은 감으로 비교하지 않는다.
사용률은 사용률대로 본다.
가격은 가격대로 본다.
능력은 점수로 본다.
그리고 중요한 기준이 하나 있다.
가격 비교는 실제 유료 요금제 기준으로 한다.
능력 비교는 그 요금제에서 접근 가능한 대표 모델 기준으로 한다.
이번 비교 기준은 다음과 같다.
| 서비스 | 비교 요금제 | 대표 모델 |
| ChatGPT | ChatGPT Plus | GPT-5.5 Thinking |
| Gemini | Google AI Pro | Gemini 3.1 Pro |
| Claude | Claude Pro | Claude Opus 4.7 |
※ ChatGPT Plus는 공식 가격표에서 GPT-5.5 Thinking에 대한 확장 접근을 제공하고,
Claude Opus 4.7은 Claude Pro, Max, Team, Enterprise 사용자에게 제공하고 있다.
Google AI Pro는 Gemini 3.1 Pro와 Deep Research에 대한 높은 접근권을 제공한다.

1. 한국 사람들이 많이 쓰는 AI 순위
한국에서 가장 많이 쓰는 AI 챗봇은 ChatGPT다.
2026년 4월 StatCounter의 한국 AI 챗봇 시장점유율 기준으로 ChatGPT는 56.54%다.
2위는 Google Gemini 25.12%, 3위는 Perplexity 8.44%,
4위는 Microsoft Copilot 5.78%, 5위는 Claude 4.12%다.

이 지표는 “AI 챗봇 시장점유율” 기준이므로 모든 앱 사용량을 완벽히 대표한다고 보기는 어렵지만,
공개적으로 인용하기 좋은 사용률 지표다.
| 순위 | AI 도구 | 한국 시장 점유율, 26년 4월 |
| 1 | ChatGPT | 56.54% |
| 2 | Google Gemini | 25.12% |
| 3 | Perplexity | 8.44% |
| 4 | Microsoft Copilot | 5.78% |
| 5 | Claude | 4.12% |
[ 출처 : AI Chatbot Market Share Republic Of Korea | Statcounter Global Stats]
사용률 3위는 Claude가 아니라 Perplexity다.
그런데도 이 글에서는 ChatGPT, Gemini, Claude를 비교한다. 이유는 간단하다.
Perplexity는 검색형 AI에 가깝다.
ChatGPT, Gemini, Claude는 사람들이 실제로 “AI 비서” 또는 “AI 작업 도구”로 비교하는 대표 조합이다.
ChatGPT는 가장 대중적인 만능 AI다.
Gemini는 구글 생태계와 결합한 AI다.
Claude는 긴 문서와 깊은 작업에 강한 AI다.
이 글에서는 결제 전에 가장 많이 고민할 만한 AI 3대장을 비교하였다.

2. 요금제 비교: 월 20달러대에서 무엇을 얻는가
요금제는 비슷한 가격대끼리 비교해야 한다.
ChatGPT에는 Plus와 Pro가 있다.
Gemini에는 Google AI Pro와 Ultra가 있다.
Claude에는 Pro와 Max가 있다.
그중 일반 사용자가 가장 많이 고민하는 가격대는 월 20달러 전후다.
그래서 비교 대상은 이렇게 잡는다.
ChatGPT Plus.
Google AI Pro.
Claude Pro.

ChatGPT Plus는 월 20달러 구독이며,
OpenAI 가격표에는 Plus에서 GPT-5.5 Thinking을 “한도 확장”으로 사용할 수 있다고 안내되어 있다.
또한 Plus에는 파일 업로드, 데이터 분석, 비전, 이미지 생성, 프로젝트, 작업, GPT 생성·공유 등이 포함된다.
Google AI Pro는 월 19.99달러이고,
Gemini 3.1 Pro와 Deep Research에 대한 높은 접근권,
Gemini Code Assist·Gemini CLI 한도 확대, Gmail·Drive·Photos에 걸친 5TB 저장공간을 제공한다.
Claude Pro는 월 20달러, 연간 결제 시 월 17달러 수준이다.
Claude Pro에는 Claude Code, Claude Cowork, Research, 무제한 프로젝트,
Claude for Excel·PowerPoint·Word가 포함된다.
| 구분 | ChatGPT Plus | Google AI Pro | Claude Pro |
| 월 가격 | $20 | $19.99 | $20 |
| 대표 모델 | GPT-5.5 Thinking | Gemini 3.1 Pro | Claude Opus 4.7 |
| 저장공간 | 별도 대용량 저장공간 없음 | 5TB 포함 | 별도 대용량 저장공간 없음 |
| 문서/업무 기능 | 파일 업로드, 데이터 분석, 프로젝트, GPTs | Gmail, Docs, Drive, NotebookLM, 5TB | Claude Code, Cowork, Office 파일 연동 |
| 가성비 포인트 | 하나만 결제할 때 가장 무난 | 구글 저장공간까지 필요하면 강함 | 긴 문서·코딩·업무 작업자에게 강함 |
가격만 보면 셋은 비슷하다.
하지만 구성은 다르다.
ChatGPT Plus는 범용 AI 구독권에 가깝다.
Google AI Pro는 AI + 구글 생태계 + 5TB 저장공간이다.
Claude Pro는 AI + 문서·코딩·업무 에이전트에 가깝다.
3. 문맥 이해도 비교: 긴 글을 얼마나 잘 붙잡고 가는가
문맥 이해도라는 게 있다.
AI가 긴 글을 넣을 수 있다는 것과, 긴 글을 제대로 이해한다는 것은 다르다.
논문 10개를 넣었을 때,
앞부분에 나온 조건을 뒤에서도 기억하는가.
중간에 숨어 있는 정보를 찾아내는가.
멀리 떨어진 내용을 연결하는가.
긴 대화 속에서 사용자의 요구를 잃어버리지 않는가.

이걸 보는 데는 단순 컨텍스트 길이보다 문서 이해 점수가 더 중요하다.
아래는 Artificial Analysis에서 각 모델의 컨텍스트 길이와
Document Arena 리더보드에서 제시하는 문서 분석과 장문 추론을 평가데이터를 담았다.
| 항목 | GPT-5.5 | Gemini 3.1 Pro | Claude Opus 4.7 |
| 컨텍스트 길이 | 922K~1.1M급 | 1M | 1M |
| Document Arena 점수 | 1490 ±16 | 1449 ±7 | 1515 ±11 |
| 해석 | 장문 문서 처리 상위권 | 긴 입력 가능, 점수는 세 모델 중 낮음 |
문서·긴 글 이해 선호도 가장 높음 |
[ 출처 : LLM Leaderboard - Comparison of over 100 AI models from OpenAI, Google, DeepSeek & others,
Document Understanding Leaderboard - Best AI Models for PDFs & Documents ]

문서와 긴 글 중심으로 보면 Claude가 가장 강하다.
ChatGPT도 근소하게 뒤따른다.
Gemini는 1M 입력이라는 장점은 있지만,
Document Arena 점수에서는 세 모델 중 낮다.
즉, “긴 글을 넣을 수 있느냐”만 보면 셋 다 강하다.
하지만 “긴 글을 얼마나 잘 다루느냐”는 Claude 쪽이 더 좋게 나온다.
4. 어려운 문제 해결 능력 비교: 누가 더 잘 추론하는가
AI의 추론 능력은 단순히 많이 아는 것과 다르다.
조건을 이해하고,
여러 단계를 거쳐 답을 내고,
어려운 문제를 논리적으로 푸는 능력이다.

Artificial Analysis의 LLM 리더보드를 통해 지능, 가격, 속도, 컨텍스트 등 비교 점수를 얻을 수 있다.
2026년 5월 기준 GPT-5.5 xhigh는 Intelligence Index 60점,
Claude Opus 4.7 max는 57점, Gemini 3.1 Pro Preview는 57점으로 제시된다.
| 항목 | GPT-5.5 | Gemini 3.1 Pro | Claude Opus 4.7 |
| Artificial Analysis Intelligence Index |
60 | 57 | 57 |
| 순위 해석 | 1위 | 공동 상위권 | 공동 상위권 |
| 특징 | 종합 문제 해결 점수 가장 높음 | 가격 대비 효율 강함 | 사용자 선호도와 문서 작업에서 강함 |
[ 출처 : LLM Leaderboard - Comparison of over 100 AI models from OpenAI, Google, DeepSeek & others]

이 표만 보면 GPT-5.5가 앞선다.
하지만 차이가 엄청 크지는 않다.
GPT-5.5가 60점, Claude와 Gemini가 57점이다.
즉, 어려운 문제 해결 능력은 이렇게 정리할 수 있다.
종합 추론 점수는 ChatGPT가 근소하게 앞선다.
Claude와 Gemini도 최상위권이다.
세 모델의 차이는 “된다 / 안 된다”가 아니라, 어려운 문제에서 조금 더 안정적으로 버티는 정도의 차이다.
5. 코딩 능력 비교: 코드를 쓰는가, 실제로 고치는가
코딩 능력도 단순히 코드를 생성하는 것만 보면 안 된다.
요즘 중요한 것은 실제 작업 능력이다.
기존 코드베이스를 이해하는가.
여러 파일을 함께 고치는가.
오류를 찾고 수정하는가.
웹 화면을 구현하는가.
개발자가 원하는 형태로 완성해주는가.

이 부분은 두 가지 점수를 같이 보는 게 좋다.
하나는 llm-stats의 Coding 점수다.
다른 하나는 Code Arena의 리더보드 점수다.
| 항목 | GPT-5.5 | Gemini 3.1 Pro | Claude Opus 4.7 |
| llm-stats Coding 점수 | 53.1 | 44.1 | 51.6 |
| Code Arena 점수 | 1492 | 1453 | 1571 |
| 해석 | 종합 코딩 점수 높음 | 코딩 점수는 상대적으로 낮음 | 실제 웹개발 선호도 1위 |
[ 출처 : AI Leaderboard 2026 - Compare Top AI Models & Rankings,
Code AI Leaderboard - Best AI Models for Coding]

종합 코딩 점수는 GPT-5.5가 가장 높다.
하지만 실제 웹개발 선호도에서는 Claude가 압도적으로 높다.
이 말은 이렇게 해석할 수 있다.
코딩 문제를 푸는 능력은 ChatGPT가 강하다.
실제 개발자가 체감하는 웹개발 결과물은 Claude가 더 좋게 평가된다.
Gemini는 코딩도 가능하지만, 이 두 지표에서는 상대적으로 약하다.
코딩을 많이 한다면 결론은 간단하다.
터미널, 자동화, 코드 문제 풀이 중심이면 ChatGPT가 좋다.
웹개발, 코드 수정, 결과물 품질 중심이면 Claude가 강하다.
6. 멀티모달 능력 비교: 이미지·표·문서까지 잘 읽는가
멀티모달 능력이라는 게 있다.
글만 읽는 AI는 이제 부족하다.
이미지, 표, 그래프, PDF, 화면 캡처까지 이해해야 한다.

이 부분은 Vision Arena 리더보드를 기준으로 보면 좋다.
| 항목 | GPT-5.5 | Gemini 3.1 Pro | Glaude Opus 4.7 |
| Vision Arena 점수 | 1293 ±14 | 1277 ±7 | 1299 ±10 |
| 순위 해석 | 상위권 | 세 모델 중 낮음 | 세 모델 중 가장 높음 |
| 특징 | 이미지·문서 처리 안정적 | 영상·오디오·PDF 등 구글 생태계 장점 | 시각 자료 이해 사용자 선호도 높음 |
[ 출처 : Vision AI Leaderboard - Best Image & Multimodal Models]
멀티모달 점수만 보면 Claude가 근소하게 앞선다.
ChatGPT도 거의 붙어 있다.
Gemini는 세 모델 중 낮다.
다만 Gemini는 구글 생태계 안에서 강점이 있다.
Google AI Pro는 Gmail, Docs, Drive, NotebookLM, Google AI Studio 등과 연결되고,
1M 컨텍스트와 5TB 저장공간을 제공한다.
그래서 순수 점수는 낮아도, 구글 서비스를 많이 쓰는 사람에게는 실사용 편의성이 크다.
7. 사용자 선호도 비교: 사람들이 실제로 더 좋다고 느끼는 AI는?
마지막으로 사용자 선호도다.
벤치마크는 시험 점수다.
사용자 선호도는 블라인드 시식에 가깝다.
AI 이름을 가리고 두 답변을 보여준 뒤, 사람들이 어느 쪽을 더 좋게 느끼는지 보는 방식이다.
Arena Text Arena는 2026년 5월 1일 기준 600만 표 이상을 바탕으로 텍스트 답변 선호도를 비교한다.
같은 리더보드에서 Claude Opus 4.7 Thinking은 1503점,
Gemini 3.1 Pro Preview는 1493점, GPT-5.5-high는 1488점, GPT-5.5는 1475점이다.
| 항목 | GPT-5.5 | Gemini 3.1 Pro | Claude Opus 4.7 |
| Text Arena Overall | GPT-5.5 1475 | Gemini 3.1 Pro Preview 1493 | Claude Opus 4.7 1497 |
| Document Arena | 1490 | 1449 | 1515 |
| Code Arena WebDev | 1492 | 1453 | 1571 |
| Vision Arena | 1293 | 1277 | 1299 |
[ 출처 : LLM Leaderboard - Best Text & Chat AI Models Compared]
사용자 선호도는 꽤 분명하다.
Claude가 강하다.
특히 문서, 코딩, 비전에서 Claude가 모두 높다.
ChatGPT는 종합 성능과 코딩 점수에서 강하지만, 사용자 선호형 점수에서는 Claude보다 낮다.
Gemini는 Text Arena에서는 강하지만, Document·Code·Vision에서는 세 모델 중 낮게 나온다.
최종 정리: 그래서 무엇을 결제해야 할까?
| 기준 | 1위 | 2위 | 3위 |
| 한국 사용률 | ChatGPT | Gemini | Claude는 5위권 |
| 가격/구성 가성비 | Gemini | ChatGPT | Claude |
| 문서·문맥 이해도 | Claude | ChatGPT | Gemini |
| 종합 추론 점수 | ChatGPT | Claude/Gemini 공동권 | Claude/Gemini 공동권 |
| 코딩 점수 | ChatGPT | Claude | Gemini |
| 웹개발 사용자 선호도 | Claude | ChatGPT | Gemini |
| 멀티모달 사용자 선호도 | Claude | ChatGPT | Gemini |
| 전체 사용자 선호도 | Claude | Gemini | ChatGPT |
ChatGPT는 한국에서 가장 많이 쓰인다.
사용률이 압도적이고, 글쓰기·자료정리·이미지·코딩·파일 분석까지 두루 쓴다.
특정 분야에서 항상 1등은 아니다.
하지만 실패 확률이 낮다.
AI를 하나만 결제할 사람에게는 ChatGPT Plus가 가장 무난하다.
구글을 많이 쓰면 Google AI Pro다
Google AI Pro는 순수 AI 성능 점수만 보면 항상 1등은 아니다.
하지만 5TB 저장공간이 붙는다.
Gmail, Docs, Drive, NotebookLM과 연결된다.
구글 생태계 안에서 일하는 사람에게는 체감 가성비가 크다.
구글 드라이브, 지메일, 문서 작업을 많이 하면 Gemini가 가장 실용적이다.

긴 글, 문서, 코딩 작업이 많으면 Claude Pro다
Claude는 한국 사용률만 보면 낮다.
하지만 점수표를 보면 다르게 보인다.
Document Arena, Code Arena, Vision Arena, Text Arena에서 모두 강하다.
특히 긴 글, 문서 분석, 웹개발, 결과물 품질 쪽에서 좋게 나온다.
깊게 쓰는 사람에게는 Claude Pro가 가장 매력적이다.
2026년 AI 선택은 인기투표가 아니다
2026년 AI 선택은 단순히 “누가 제일 유명한가”의 문제가 아니다.
ChatGPT는 가장 많이 쓰인다.
Gemini는 구글 생태계와 가격 구성이 좋다.
Claude는 문서·코딩·사용자 선호도에서 강하다.
그래서 최종 결론은 이렇게 정리할 수 있다.
가장 무난한 선택은 ChatGPT Plus다.
구글 서비스를 많이 쓰면 Google AI Pro다.
긴 글, 문서, 코딩, 깊은 작업이 많으면 Claude Pro다.

AI를 고르는 일은 이제 스마트폰을 고르는 것과 비슷하다.
가장 많이 팔리는 제품이 있고,
내 생활권에 잘 맞는 제품이 있고,
특정 작업에서 유난히 강한 제품이 있다.
중요한 건 남들이 뭘 쓰느냐가 아니다.
내가 매달 돈을 내고도 아깝지 않은 AI가 무엇인지다.
'주절주절' 카테고리의 다른 글
| 서울대입구에서 아구찜을 먹었다. (0) | 2026.04.24 |
|---|---|
| 양재 강촌원조쭈꾸미에서 산쭈꾸미를 먹었다 (0) | 2026.04.23 |
| AI 에이전트가 뭐길래 빅테크가 다 뛰어들까: 챗봇과 다른 점 정리 (0) | 2026.04.22 |
| 신동궁감자탕 뼈숯불구이를 먹었다. (0) | 2026.04.21 |
| 미나리전을 집에서 해보았다 (0) | 2026.04.20 |