본문 바로가기
ppaliAI

용어 사전 / Glossary

AI 핵심 용어 30선

ppaliAI 본문에 자주 등장하는 용어들의 한국어 표기, 영문, 변형, 단문 정의입니다. 처음 보는 용어를 만나면 이 페이지를 참조하세요.

모델 / model

챗GPT(ChatGPT)· 챗지피티 · ChatGPT
OpenAI가 2022년 11월 공개한 대화형 AI 챗봇. GPT 모델 계열 위에서 사용자 메시지에 답하도록 튜닝됨.
클로드(Claude)· Claude
Anthropic이 개발한 대화형·코딩·에이전트용 AI 모델 계열. Haiku, Sonnet, Opus 세 티어로 제공.
제미나이(Gemini)· 제미니 · Gemini
Google이 만든 멀티모달 AI 모델 계열. Pro / Flash / Ultra 등으로 세분화.
대규모 언어 모델(LLM)· 거대 언어 모델 · LLM · 대형 언어 모델
수십억~수천억 파라미터를 가진 신경망 언어 모델. 텍스트 생성·이해·추론 등 범용 자연어 작업에 사용.
파운데이션 모델(Foundation Model)· 기반 모델
다양한 downstream 작업으로 파생 가능한 대규모 범용 사전학습 모델.
오픈웨이트 모델(Open-weights LLM)· 오픈소스 LLM
가중치가 공개돼 자체 인프라에서 추론·파인튜닝 가능한 LLM. Llama, Mistral, DeepSeek 등.

개념 / concept

프롬프트 엔지니어링(Prompt Engineering)· 프롬프트 설계
LLM에 입력하는 지시문을 구조화·반복 개선해 출력 품질을 끌어올리는 작업.
컨텍스트 엔지니어링(Context Engineering)· 맥락 엔지니어링
프롬프트뿐 아니라 도구·메모리·검색 결과까지 LLM 입력 컨텍스트 전체를 설계하는 상위 개념.
토큰(Token)
LLM이 텍스트를 처리할 때 다루는 최소 단위. 영어 1단어 ≈ 1.3 토큰, 한국어 1글자 ≈ 1.5~3 토큰.
토크나이저(Tokenizer)· 토큰화기
텍스트를 토큰 시퀀스로 변환하는 컴포넌트. 모델별로 다르며 한국어 효율 차이가 큼.
생성형 AI(Generative AI)· 생성 AI · 제너레이티브 AI
기존 데이터로부터 새 텍스트·이미지·코드 등을 생성하는 AI 분야의 총칭.
리즈닝(Reasoning)· 추론 (사고형) · 추론 모델
답을 내기 전 내부 사고 단계를 길게 거치도록 학습된 모델 동작. o1·Claude 3.5 Sonnet Thinking 등.
사고의 사슬(Chain-of-Thought)· CoT · 체인 오브 쏘트
LLM이 단계별 사고 과정을 명시적으로 출력하도록 유도해 정답률을 높이는 프롬프팅 기법.
바이브 코딩(Vibe Coding)
코드를 직접 쓰기보다 LLM에게 의도를 자연어로 전달해 결과물을 받아내는 개발 스타일.
가드레일(Guardrail)· 안전 장치
LLM이 위험하거나 부적절한 출력을 내지 않도록 입출력 단계에 둔 검증·필터링 장치.

에이전트 / agent

AI 에이전트(AI Agent)· 인공지능 에이전트 · 에이전트
사용자 목표를 받아 도구 호출·웹 탐색·코드 실행 등으로 작업을 자율 수행하는 LLM 기반 시스템.
모델 컨텍스트 프로토콜(MCP)· MCP · Model Context Protocol
Anthropic이 제안한 LLM↔외부 도구 호출 표준. 모든 도구를 같은 인터페이스로 노출.
멀티 에이전트(Multi-agent)· 다중 에이전트
여러 LLM 에이전트가 역할을 나누어 협업하는 패턴. 큐레이터·작가·편집자 등으로 분업.
코딩 에이전트(Coding Agent)· 코드 에이전트
코드 작성·수정·테스트·디버깅을 자율 수행하는 AI 에이전트. Claude Code, Cursor Composer 등.

인프라 / infra

검색 증강 생성(RAG)· RAG · 알에이지
LLM 답변 전에 외부 문서를 검색해 컨텍스트로 주입하는 패턴. 환각 감소와 최신 정보 반영에 사용.
파인튜닝(Fine-tuning)· 미세 조정 · 파인 튜닝
사전 학습된 모델을 특정 도메인 데이터로 추가 학습시켜 성능을 도메인에 맞추는 기법.
임베딩(Embedding)· 벡터 임베딩
단어·문장·이미지를 의미적으로 유사하면 가까운 벡터로 사상하는 표현 방식. 검색·분류에 사용.
벡터 데이터베이스(Vector Database)· 벡터 DB
임베딩 벡터를 저장하고 유사도 기반으로 빠르게 검색하는 데이터베이스. RAG 인프라의 핵심 부품.
추론(Inference)· 인퍼런스
학습이 끝난 모델이 실제 입력에 답을 생성하는 단계. 학습보다 훨씬 자주 일어남.
사전 학습(Pretraining)· 프리트레이닝
대규모 일반 데이터로 LLM의 기본 언어 능력을 갖추게 하는 단계. 비용·시간 부담이 가장 큼.
강화 학습 (RLHF)(RLHF)· 강화학습 · 사람 피드백 강화학습
사람이 매긴 선호 점수로 LLM 출력을 보상해 정렬하는 학습 방식. ChatGPT 이후 표준화.
트랜스포머(Transformer)
2017년 구글 논문에서 제안된 어텐션 기반 신경망 구조. 현대 LLM의 거의 모든 아키텍처 기반.
어텐션(Attention)· 주의 메커니즘
입력 토큰 사이 관계를 가중치로 계산해 중요한 부분에 집중하는 메커니즘.

평가 / evaluation

환각(Hallucination)· 환각 현상 · 할루시네이션
LLM이 사실이 아닌 내용을 그럴듯하게 만들어내는 현상. 학습 데이터 부족·추론 오류 등으로 발생.

마케팅·검색 / marketing

생성형 엔진 최적화(GEO)· GEO · AEO
ChatGPT·Claude·Perplexity 등 생성형 AI의 답변에 자신의 콘텐츠가 인용되도록 최적화하는 전략.

이 사전은 본문 작성 시 자동 매칭되어 각 글의 definitions JSON-LD에 포함됩니다. 표기 제안·정정은 /corrections/ 또는 편집부 이메일.