Claude vs ChatGPT 비교 — 2026년 실사용 기준 정리

Claude와 ChatGPT를 실제로 써본 기준으로 비교한다. 벤치마크 점수가 아니라 실무에서 체감되는 차이를 정리한다. 2026년 4월 기준이다. 한눈에 보는 비교 항목 Claude (Anthropic) ChatGPT (OpenAI) 최신 모델 Opus 4.6 GPT-5 코딩 강함 (Claude Code CLI) 보통 (Copilot 연동) 글쓰기 자연스러운 톤, 긴 글 강함 구조적, 형식적 톤 이미지 생성 불가 DALL-E 내장 컨텍스트 윈도우 100만 토큰 12.8만 토큰 파일 접근 Claude Code로 직접 수정 업로드만 가능 플러그인/앱 스킬 시스템 (신규) GPTs 스토어 (성숙) 가격 Pro $20/월 Plus $20/월 무료 플랜 있음 (일일 제한) 있음 (모델 제한) 코딩 — Claude가 앞선다 코딩에서 가장 큰 차이는 Claude Code다. Claude Code는 터미널에서 실행되는 CLI 도구로 프로젝트 폴더 전체를 읽고 파일을 직접 생성하고 수정하고 실행까지 한다. ChatGPT는 대화창에서 코드를 생성해주지만 직접 파일을 만들거나 실행하지는 못한다. 코드를 복사해서 붙여넣는 단계가 필요하다. 실제로 Claude Code에게 “Blogger API로 자동 발행하는 스크립트 만들어줘”라고 지시했을 때 30분 만에 작동하는 스크립트가 나왔다. 같은 요청을 ChatGPT에 하면 코드는 나오지만 파일 생성과 실행은 직접 해야 한다. 글쓰기 — 톤이 다르다 같은 주제(“AI 코딩 도구의 장단점을 500자로 써줘”)를 던져보면 차이가 보인다. ChatGPT는 “결론적으로”, “중요한 것은” 같은 표현을 쓰고 번호 리스트로 정리하는 경향이 강하다. 체계적이지만 AI가 쓴 티가 난다. Claude는 문장 길이가 다양하고 대화체...

Claude Code vs Cursor 비교 — 어떤 AI 코딩 도구를 써야 하나

Claude Code와 Cursor를 실제로 써본 기준으로 비교한다. 둘 다 AI 코딩 도구지만 작동 방식이 근본적으로 다르다. 2026년 4월 기준이다. 한눈에 보는 비교 항목 Claude Code Cursor 유형 터미널 CLI IDE (VS Code 포크) 작동 방식 대화로 지시 → 파일 생성/수정/실행 코드 편집 중 AI 보조 파일 접근 프로젝트 전체 읽기/쓰기 열린 파일 + 컨텍스트 실행 직접 실행 + 디버깅 실행은 별도 터미널 언어 한국어 지시 가능 한국어 가능 (영어 권장) 자동완성 없음 (대화 기반) Tab 자동완성 (핵심 기능) 가격 Claude Pro $20/월 무료 + Pro $20/월 강점 프로젝트 전체 작업, 자동화 기존 코드 편집, 실시간 보조 근본적 차이 — 대화 vs 편집 이게 가장 중요한 차이다. Claude Code 는 대화한다. “블로그 자동 발행 스크립트 만들어줘”라고 말하면 파일을 만들고 의존성을 설치하고 실행까지 한다. 코드 에디터를 열 필요가 없다. Cursor 는 편집을 돕는다. 코드를 쓰고 있으면 다음 줄을 예측하고 선택한 코드를 리팩토링하거나 에러를 설명해준다. 코드 에디터 안에서 작동한다. 비유하면: Claude Code = “이거 만들어줘”라고 시키는 것 Cursor = 옆에서 같이 코딩하는 것 언제 Claude Code가 맞는가 새 프로젝트를 처음부터 만들 때. “마크다운 파일을 Blogger API로 발행하는 스크립트 만들어줘.” 이 한 문장으로 프로젝트가 시작된다. 파일 구조, 설정, 의존성까지 전부 만든다. 자동화 스크립트를 만들 때. 실제로 Claude Code로 만든 것: - Blogger API 자동 발행 스크립트 - Threads API 자동 발행 스크립트 - 두 개 모두 코드를 직접 쓰지 않고 ...

바이브코딩이란 — Claude Code로 시작하는 방법

바이브코딩(vibe coding)은 코드를 직접 쓰지 않고 AI에게 자연어로 지시해서 프로그램을 만드는 방식이다. “이런 기능 만들어줘”라고 말하면 AI가 코드를 작성하고 실행까지 한다. 이 글에서는 Claude Code로 바이브코딩을 시작하는 방법과 실제로 만든 것을 정리한다. 바이브코딩이 뭔가 Andrej Karpathy (전 Tesla AI 디렉터, 현 OpenAI)가 2025년에 처음 쓴 용어다. 핵심은 이거다: 코드를 쓰는 게 아니라 AI에게 원하는 걸 설명하고 결과를 확인하고 안 되면 다시 설명한다. 프로그래밍 언어를 몰라도 된다. 한국어로 지시해도 된다. 다만 “AI가 다 해준다”는 과장이다. 요구사항을 구체적으로 말하는 능력이 필요하다. 왜 Claude Code인가 바이브코딩 도구는 여러 개 있다. 도구 특징 바이브코딩 적합도 Claude Code 터미널 CLI, 파일 직접 생성/수정/실행 자동화 프로젝트에 강함 Cursor IDE 내장, 코드 편집 보조 기존 프로젝트 수정에 강함 GitHub Copilot IDE 내장, 자동완성 한 줄씩 보조, 전체 프로젝트는 약함 Claude Code가 바이브코딩에 적합한 이유: 파일을 직접 만든다. “이 기능 만들어줘”라고 하면 코드 파일, 설정 파일, 디렉토리 구조를 한 번에 생성한다. 복사-붙여넣기 단계가 없다. 실행하고 디버깅까지 한다. 만들고 바로 실행해서 에러가 나면 알아서 고친다. 한국어로 지시할 수 있다. “블로그 자동 발행 스크립트 만들어줘” 이 한 문장이면 시작된다. 실제로 바이브코딩으로 만든 것 직접 만든 사례 2개를 공개한다. 사례 1: 블로그 자동 발행 시스템 마크다운으로 글을 쓰면 터미널에서 명령어 한 줄로 Blogspot에 발행되는 시스템. Claude Code에게 한 지시: “마...

Gemini Gems 만들기 — 감점제 AI 리뷰어 만드는 법

이미지
Gemini Gems로 감점제 AI 리뷰어를 만드는 방법이다. gemini.google.com에서 이름과 지시문을 입력하면 5분 안에 완성된다. 코딩 필요 없다. 만들고 나면 코드든 글이든 붙여넣을 때마다 “잘 짰습니다” 대신 감점 목록부터 나온다. Google Workspace를 쓰고 있다면 GPTs 대신 이쪽이 자연스럽다. Gemini도 칭찬부터 한다 Gemini에게 “이 코드 리뷰해줘”라고 하면 “잘 구현되었네요!”부터 나온다. ChatGPT, Claude 다 마찬가지다. AI는 칭찬하도록 훈련되어 있다. 이전 글 에서 ChatGPT GPTs로 감점제 리뷰어를 만드는 방법을 다뤘다. 이번에는 같은 원리를 Gemini Gems에 적용한다. Gemini를 주로 쓰는 사람이라면 이쪽이 맞다. Gems란 뭔가 Gems는 Gemini 안에서 만드는 맞춤형 AI다. 이름과 지시문을 설정하면 그 역할에 고정된 AI가 만들어진다. ChatGPT의 GPTs와 같은 기능이다. GPTs와의 차이는 Google 생태계 안에서 작동 한다는 점이다. Google Workspace를 쓰고 있다면 Gems 쪽이 자연스럽다. 그리고 Gems는 저장 전에 미리보기 로 바로 테스트할 수 있어서 지시문을 조정하기가 편하다. Gemini Gems로 감점제 리뷰어 만드는 방법 필요한 것: - Gemini Advanced (Google One AI Premium, 월 $19.99) - 웹 브라우저 매번 “솔직하게 말해줘”를 반복하는 시간이 쌓이면 한 달에 수십 번의 불필요한 타이핑이다. Gems로 한 번 고정하면 그 비용이 0이 된다. 1단계: Gems 생성 화면 열기 gemini.google.com 접속 좌측 메뉴 → Gems 탐색하기 새 Gem 클릭 2단계: 기본 정보 입력 이름 : 감점제 리뷰어 (또는 원하는 이름) 지시문 : 아래 내용을 그대로 붙여넣는다 3단계: 지시문 입력 이게 핵심이다. 이 지시문이 Gem의 행동...

ChatGPT GPTs 만들기 — 감점제 AI 리뷰어 만드는 법

이미지
ChatGPT GPTs로 감점제 AI 리뷰어를 만드는 방법이다. ChatGPT 화면에서 이름과 지시문을 입력하면 5분 안에 완성된다. 코딩 필요 없다. 만들고 나면 코드를 붙여넣을 때마다 “잘 짰습니다” 대신 감점 목록부터 나오는 리뷰어가 된다. 왜 ChatGPT 기본 리뷰로는 부족한가 ChatGPT에게 “이 코드 리뷰해줘”라고 하면 “전반적으로 잘 작성되었습니다”부터 나온다. 이건 ChatGPT가 거짓말을 하는 게 아니라 칭찬하도록 훈련된 결과다. RLHF(사용자가 ‘좋아요’를 누른 답변을 더 만드는 훈련)에서 기분 좋은 답변에 점수가 올라가니까 아첨을 학습한 것이다. “솔직하게 리뷰해줘”라고 써봐도 대화가 길어지면 다시 부드러워진다. 해결 방법은 GPTs로 역할 자체를 고정하는 것이다. GPTs란 뭔가 GPTs(Custom GPT)는 ChatGPT 안에서 만드는 맞춤형 AI다. 이름과 지시문을 설정하면 그 역할에 고정된 AI가 만들어진다. 매번 “솔직하게 말해줘”를 반복할 필요가 없어진다. 매번 지시를 반복하는 시간이 쌓이면 한 달에 수십 번의 불필요한 타이핑이다. GPTs로 역할을 한 번 고정하면 그 비용이 0이 된다. ChatGPT GPTs로 리뷰어 만드는 방법 1단계: GPTs 생성 화면 열기 ChatGPT 접속 좌측 메뉴 → GPTs 살펴보기 우측 상단 → 만들기 클릭 2단계: 기본 정보 입력 이름 : 감점제 리뷰어 (또는 원하는 이름) 설명 : 10점 만점에서 감점만 하는 코드/글 리뷰어. 칭찬 금지. 지시문 : 아래 시스템 프롬프트를 통째로 붙여넣는다 3단계: 시스템 프롬프트 입력 이게 핵심이다. 이 지시문이 GPT의 행동을 결정한다. 아래 내용을 “지시문” 칸에 그대로 붙여넣으면 된다. 내용을 이해할 필요 없다. 복사해서 붙여넣기만 하면 작동한다: 너는 코드와 글을 채점하는 심판이다. 규칙: - 10점 만점에서 감점만 한다. 가산점은 없다. - 칭찬은 금지다. “잘 ...

Claude Code 사용법 — 블로그 글 자동 발행 시스템 만들기

Claude Code로 블로그 자동 발행 스크립트를 만드는 방법이다. 마크다운 파일을 터미널에서 명령어 한 줄로 Blogspot에 발행한다. Google Cloud Console 설정 10분, Claude Code에 지시 20분, 테스트 5분이면 끝난다. 코드를 직접 쓰지 않고 Claude Code에게 지시만 해서 만들었다. Claude Code가 뭔가 터미널에서 “블로그 발행 자동화해줘”라고 치면 스크립트를 만들어주는 AI 코딩 도구다. Anthropic이 만들었다. IDE 플러그인이 아니라 독립 CLI 도구다. 프로젝트 폴더 전체를 읽고, 파일을 직접 생성하고 수정하고 실행까지 한다. 블로그 글 1편 올리는 데 15분이 걸렸다 Blogspot에 글을 올리려면 마크다운 → HTML 변환 → Blogger 접속 → 제목 입력 → HTML 모드 전환 → 본문 붙여넣기 → 라벨 설정 → 검색 설명 → 미리보기 → 발행. 1편에 15분. 한 달에 30편이면 7시간 이상을 “올리는 작업”에만 쓰는 셈이다. 글 쓰는 시간보다 올리는 시간이 더 길었다. 이걸 Claude Code에게 맡겼다. Claude Code에게 한 지시 터미널에서 Claude Code를 열고 이렇게 말했다: “마크다운 파일을 Blogger API v3으로 자동 발행하는 Python 스크립트를 만들어줘. frontmatter에서 제목, 라벨, 슬러그를 읽고, 마크다운을 HTML로 변환한 뒤, OAuth 2.0으로 인증해서 Blogger에 POST해줘. dry-run 옵션도 넣어줘.” Claude Code가 만든 것: publish.py 메인 스크립트 (약 200줄) requirements.txt 의존성 목록 config.json 설정 파일 OAuth(구글 로그인 인증) 흐름 (최초 1회 브라우저 인증 → 이후 자동) dry-run 모드 (발행 없이 HTML 미리보기) ...

AI 아첨을 감지하는 것과 줄이는 것은 다르다 — 감점제 AI 리뷰어를 만든 이유

왜 AI는 항상 "좋습니다"라고 하는가 AI에게 코드 리뷰를 시키면 "잘 짰습니다"부터 나온다. 이건 AI가 거짓말을 하는 게 아니라 칭찬하도록 훈련된 결과다. 프롬프트로 "솔직하게 말해줘"라고 해도 근본적으로 바뀌지 않는다. AI 모델은 사용자가 '좋아요'를 누른 답변을 더 많이 만들도록 훈련된다. 이 방식을 RLHF(인간 피드백 기반 강화학습)라고 한다. 문제는 사람이 정확한 답보다 기분 좋은 답에 '좋아요'를 더 많이 누른다는 것이다. AI 입장에서는 동의하면 점수가 올라가고, 칭찬하면 점수가 올라간다. 그래서 아첨을 학습한다. Anthropic이 이 문제를 직접 연구해서 논문으로 발표 했다. 2026년 3월에는 Stanford 연구팀이 AI 챗봇의 아첨이 "위험한 수준" 이라는 결과를 냈다. 코드 리뷰에서 이 문제가 특히 위험하다. 코드를 보여주면 "구조가 깔끔합니다"로 시작한다. 버그가 있어도 "전반적으로 잘 작성되었습니다"를 먼저 말하고 문제를 조심스럽게 언급한다. AI가 동의했으니까 맞겠지. 이 가정이 가장 위험하다. 감점제 — 칭찬할 구조가 없는 채점표 만든 도구의 이름은 brutal-review다. 원리는 단순하다. 10점 만점에서 시작해서 감점만 한다. 가산점이 없다. "잘한 점"을 말할 칸이 채점표에 없으니, AI가 칭찬을 끼워넣을 여지가 줄어든다. 실제 결과는 이렇게 나온다. SUDYA MYASNIK (The Butcher) — Final Scorecard ============================================== 종목 1. 구조적 정확성(Structural Correctness): 0.9 /...