Part 1에서는 AI Fluency의 개념과 4Ds 프레임워크를 소개했습니다. 이번 Part 2에서는 Generative AI의 기초를 다룹니다.
이 시리즈는 Anthropic Academy의 AI Fluency: Framework & Foundations 과정을 학습하며 정리한 내용입니다.❝AI와 효과적으로 협업하려면, 먼저 AI가 무엇을 할 수 있고 무엇을 할 수 없는지 이해해야 합니다. 이 지식이 바로 Delegation(위임) 역량의 기반이 됩니다.
❞
이 시리즈는 총 6부작으로 구성되어 있습니다:
- ❧Part 1: AI와 협업하는 새로운 역량
- ❧ Part 2: Generative AI의 이해 (현재 글)
- ❧Part 3: Delegation - 무엇을 AI에게 맡길 것인가
- ❧Part 4: Description - AI와 효과적으로 소통하기
- ❧Part 5: Discernment - AI 결과물 평가하기
- ❧Part 6: Diligence - 책임감 있는 AI 사용
Generative AI란?
Generative AI는 기존 데이터를 분석하는 것을 넘어, 새로운 콘텐츠를 생성할 수 있는 인공지능 시스템입니다.
| Traditional AI | Generative AI |
|---|---|
| 이메일을 스팸/정상으로 분류 | 완전히 새로운 이메일을 작성 |
| 이미지에서 고양이를 인식 | 새로운 고양이 이미지를 생성 |
| 데이터 패턴을 분석 | 패턴을 학습해 새로운 콘텐츠를 창작 |
ChatGPT, Claude, Gemini 같은 대규모 언어 모델(LLM, Large Language Model)이 대표적인 Generative AI입니다.
Generative AI를 가능하게 한 3가지 요소
현재의 Generative AI는 세 가지 기술적 발전이 결합되어 탄생했습니다.
✦1. 알고리즘: Transformer 아키텍처
2017년 Google의 "Attention Is All You Need" 논문에서 소개된 Transformer 아키텍처가 혁신의 시작점입니다.
핵심 혁신: Self-Attention 메커니즘
→ 긴 텍스트에서 단어 간의 관계를 효과적으로 파악
→ "그녀는 커피를 마셨다. 그것은 뜨거웠다"에서 "그것"이 "커피"를 가리킨다는 것을 이해이전의 순차적(Sequential) 모델들과 달리, Transformer는 훈련 시 텍스트 전체를 동시에 처리하며 문맥을 파악합니다. 단, 실제 응답 생성 시에는 토큰을 하나씩 순차적으로 출력합니다.
✦2. 데이터: 디지털 정보의 폭발
인터넷의 성장으로 방대한 양의 텍스트 데이터가 축적되었습니다.
- ❧웹사이트, 위키피디아, 뉴스 기사
- ❧코드 저장소 (GitHub 등)
- ❧책, 논문, 문서
이 데이터가 AI 모델의 학습 재료가 되었습니다. 모델은 이 텍스트들에서 언어의 패턴, 지식, 추론 방식을 학습합니다.
✦3. 컴퓨팅 파워: GPU의 발전
GPU(Graphics Processing Unit)의 발전으로 대규모 병렬 연산이 가능해졌습니다.
왜 GPU인가?
- 원래 그래픽 렌더링용으로 설계 (수천 개의 작은 연산을 동시 처리)
- AI 학습에 필요한 행렬 연산에 매우 효율적
- 수십억 개의 파라미터를 가진 모델 학습이 현실적으로 가능해짐이 세 가지 요소가 결합되어 현재의 LLM이 탄생했습니다.
LLM은 어떻게 작동하는가?
LLM의 학습과 동작은 세 단계로 이루어집니다.
✦1단계: Pre-training (사전 학습)
모델이 수십억 개의 텍스트 예제를 분석하며 "다음에 올 토큰을 예측"하는 방법을 학습합니다.
💡 토큰(Token)이란?
LLM이 텍스트를 처리하는 기본 단위입니다.
단어 전체일 수도 있고, 단어의 일부일 수도 있습니다.
예: "안녕하세요" → ["안녕", "하세요"] 또는 ["안", "녕", "하", "세요"]
학습 예시:
입력: "오늘 날씨가 정말..."
모델 예측: "좋다" (높은 확률), "춥다" (중간 확률), "바나나" (낮은 확률)
→ 이 과정을 수십억 번 반복하며 언어의 패턴을 학습이 단계에서 모델은 문법, 사실적 지식, 추론 패턴 등을 습득합니다. 핵심은 확률적 패턴 학습이라는 점입니다. 모델은 "이해"하는 것이 아니라, 방대한 텍스트에서 단어(토큰) 간의 통계적 연관성을 학습합니다.
✦2단계: Fine-tuning (미세 조정)
사전 학습된 모델을 특정 목적에 맞게 조정합니다.
- ❧사용자의 지시를 따르도록 학습
- ❧도움이 되는 방식으로 응답하도록 조정
- ❧유해한 콘텐츠를 피하도록 훈련
Claude의 경우, Constitutional AI와 RLHF(Reinforcement Learning from Human Feedback) 등의 기법으로 안전하고 유용한 응답을 하도록 조정됩니다.
✦3단계: Deployment (배포 및 사용)
사용자가 프롬프트를 제공하면, 모델은 학습한 패턴을 바탕으로 응답을 생성합니다.
사용자 프롬프트: "Python으로 피보나치 수열을 구현해줘"
모델의 동작:
1. 프롬프트의 의도 파악 (코드 작성 요청)
2. 학습된 Python 문법과 알고리즘 패턴 활용
3. 적절한 코드를 토큰 단위로 생성Generative AI의 핵심 능력
LLM은 다음과 같은 능력을 갖추고 있습니다.
✦다재다능한 언어 능력 (Versatile Language Skills)
- ❧글쓰기, 요약, 번역, 문체 변환
- ❧코드 작성, 설명, 디버깅
- ❧질문에 대한 답변, 대화
✦범용적 문제 해결 (General-purpose Abilities)
특정 도메인에 국한되지 않고, 다양한 분야의 작업을 수행할 수 있습니다. 추가 학습 없이도 다양한 작업 간 전환이 가능합니다.
✦대화 맥락 유지 (Conversational Awareness)
대화의 흐름을 기억하고 맥락을 유지하며 자연스럽게 상호작용합니다. 단, 이는 컨텍스트 윈도우 내에서만 가능합니다. 장기 기억이 아니라 현재 대화 세션의 맥락을 유지하는 것입니다.
✦예제 기반 학습 (Learning from Examples)
프롬프트에 제공된 예제를 통해 원하는 출력 형식이나 스타일을 빠르게 파악합니다. 이를 In-context Learning 또는 Few-shot Learning이라고 합니다.
예시:
"다음 형식으로 변환해줘:
입력: 사과 → 출력: 🍎
입력: 바나나 → 출력: 🍌
입력: 포도 → "
모델: "🍇"✦외부 도구 연결 (Connecting to External Tools)
최신 LLM은 검색, 코드 실행, API 호출 등 외부 도구와 연동하여 능력을 확장할 수 있습니다. 이는 모델 자체의 능력이라기보다, 모델을 감싸는 시스템 설계(오케스트레이션)를 통해 구현됩니다.
Generative AI의 현재 한계
AI와 효과적으로 협업하려면 한계를 인식하는 것이 중요합니다. 이것이 바로 Discernment(판별) 역량의 핵심입니다.
✦지식 마감일 (Knowledge Cutoff)
모델은 학습 데이터의 마감 시점 이후 정보를 알지 못합니다.
❌ "2026년 1월 현재 비트코인 가격은?"
→ 모델이 실시간 정보를 알 수 없음
✅ 해결책: 웹 검색 도구 연동, 또는 사용자가 최신 정보 제공✦환각 (Hallucinations)
모델이 그럴듯하지만 사실이 아닌 정보를 생성할 수 있습니다.
🤔 왜 환각이 발생하는가?
LLM은 확률적 생성 모델이기 때문에, "모른다"고 답하는 대신
빈칸을 그럴듯한 내용으로 채우려는 성향이 있습니다.
⚠️ 환각이 발생하기 쉬운 상황:
- 구체적인 수치, 날짜, 인용문
- 실존 인물에 대한 세부 정보
- 존재하지 않는 논문이나 출처
💡 대응: 중요한 사실은 반드시 별도 검증 필요
🚨 검증 우선순위 (고위험 영역):
- 의학/건강 정보 → 전문가 확인 필수
- 법률/규정 → 공식 문서 대조
- 재무/수치 데이터 → 원본 출처 확인✦컨텍스트 윈도우 제약 (Context Window Constraints)
모델이 한 번에 처리할 수 있는 텍스트 양에 제한이 있습니다.
컨텍스트 윈도우 = 입력(프롬프트) + 출력(응답)
- 긴 문서를 한 번에 처리하지 못할 수 있음
- 매우 긴 대화에서는 초반 내용을 "잊을" 수 있음
💡 참고: 모델마다 토큰 한도가 다르고, 언어별로 토큰화 효율도 다릅니다.
한국어는 영어보다 같은 내용에 더 많은 토큰을 사용하는 경향이 있습니다.✦복잡한 추론과 수학의 어려움
다단계 논리적 추론이나 복잡한 수학 계산에서 오류가 발생할 수 있습니다.
⚠️ 주의가 필요한 영역:
- 여러 단계의 논리적 추론
- 정확한 수치 계산
- 복잡한 수학 문제
💡 대응: 단계별로 나누어 검증, 또는 계산기/코드 실행 도구 활용인간과 AI의 상호보완적 협업
가장 효과적인 AI 활용은 인간과 AI의 강점을 결합하는 것입니다. AI의 능력과 한계를 이해하면, 자연스럽게 Delegation(위임) 역량으로 이어집니다.
| AI의 강점 | 인간의 강점 |
|---|---|
| 대량의 정보 처리 | 비판적 사고와 판단 |
| 빠른 초안 생성 | 창의적 방향 설정 |
| 일관된 형식 유지 | 윤리적 감독 |
| 패턴 기반 작업 | 맥락과 뉘앙스 이해 |
효과적인 협업 예시:
1. AI: 연구 주제에 대한 초안 작성
인간: 방향성 검토 및 핵심 논점 보완
2. AI: 데이터를 구조화된 형식으로 정리
인간: 인사이트 도출 및 의사결정
3. AI: 코드 작성 및 설명
인간: 아키텍처 설계 및 보안 검토❝핵심 원칙: AI를 대체재가 아닌 협업 파트너로 바라보고, 각자의 강점을 결합하는 것이 가장 효과적입니다.
❞
이 표의 내용이 바로 다음 글에서 다룰 Delegation(위임)의 핵심 기준이 됩니다. "무엇을 AI에게 맡기고, 무엇을 직접 할 것인가"를 판단할 때, AI와 인간의 강점을 이해하는 것이 출발점입니다.
마치며
Generative AI는 단순한 도구가 아니라 협업 파트너입니다. 하지만 모든 파트너와 마찬가지로, 효과적으로 함께 일하려면 상대방의 강점과 약점을 이해해야 합니다.
이번 글에서 다룬 내용을 요약하면:
- ❧Generative AI는 새로운 콘텐츠를 생성하는 AI (Traditional AI와 구분)
- ❧3가지 기반: Transformer 알고리즘, 대규모 데이터, GPU 컴퓨팅 파워
- ❧작동 방식: Pre-training → Fine-tuning → Deployment
- ❧핵심 능력: 언어 능력, 범용성, 대화 맥락 유지, 예제 학습, 도구 연결
- ❧주요 한계: 지식 마감일, 환각, 컨텍스트 제약, 추론 한계
- ❧효과적인 활용: 인간과 AI의 상호보완적 강점을 결합
다음 글 Part 3: Delegation - 무엇을 AI에게 맡길 것인가에서는 이러한 이해를 바탕으로 어떤 작업을 AI에게 위임하고, 어떤 작업을 직접 수행해야 하는지 판단하는 방법을 다루겠습니다.
참고 자료
- ❧Anthropic Academy - AI Fluency: Framework & Foundations
- ❧Understanding Generative AI (Rick Dakan, Joseph Feller, and Anthropic, CC BY-NC-SA 4.0)
- ❧Vaswani et al., "Attention Is All You Need" (2017)