인공지능,
그 이론과 아키텍처에
관하여
Vol. 01 · April 2026 · aboutAI Editorial
Tensor
[B, N, D]
Logits
Dim
Dim
Length
그림 0. 딥러닝의 기본 자료구조: 3차원 텐서. 배치(B) × 시퀀스(N) × 특징(D). 모든 현대 아키텍처가 이 형태의 텐서를 변환한다.
🧒 이 문서는 뭔가요?
AI 전반을 처음부터 끝까지 정리한 자료. 역사 → 수학 기초 → 신경망 → Transformer → ChatGPT → 그림 그리는 AI → 강화학습 → 안전성까지 9개 장으로 나눠져 있습니다.
- 🧒 쉬운 버전 — 비유·예시 중심 (지금 보고 있는 노란 박스)
- 📄 논문 버전 — 수식·전문용어 포함 (깊게 공부할 때)
초록 (Abstract)
본 문서는 인공지능(Artificial Intelligence, AI)의 이론적 토대와 현대적 구현을 체계적으로 기술한다. 1950년대 McCulloch-Pitts 뉴런과 Turing의 계산 이론에서 출발하여, 퍼셉트론의 한계와 AI 겨울, 통계적 학습의 부상, 2012년 AlexNet에 의한 딥러닝 혁명, 그리고 2017년 Transformer 아키텍처의 등장으로 시작된 파운데이션 모델 시대에 이르기까지의 궤적을 추적한다. 이어 선형대수·확률론·정보이론·최적화 이론이라는 네 가지 수학적 축을 중심으로 기계학습의 형식적 기반을 제시하고, PAC 학습 프레임워크, 편향-분산 분해, 정규화 이론을 논한다. 딥러닝의 경우 역전파, 합성곱 신경망, 순환 신경망, 그리고 자기주의(self-attention) 메커니즘을 수식과 함께 기술한다. 현대 대규모 언어모델(LLM)에 대해서는 다음 토큰 예측에 기반한 사전학습, Chinchilla 스케일링 법칙, 창발적 능력(emergent abilities), RLHF 기반 정렬, 그리고 chain-of-thought에 기반한 추론 능력을 다룬다. 생성모델에서는 변분 오토인코더(VAE), 생성적 적대 신경망(GAN), 확산 모델(Diffusion Model), 그리고 Flow Matching을 통합적으로 제시한다. 마지막으로 멀티모달 학습, AI 안전성과 정렬 문제, 그리고 현재의 연구 프런티어를 조망한다.
주제어: 인공지능, 기계학습, 딥러닝, Transformer, 대규모 언어모델, 생성모델, 강화학습, 정렬
📚 장별 구성
서론 · 역사적 전개
Turing에서 GPT까지 80년
수학적 기초 · ML 이론
선형대수·확률·정보·최적화
신경망과 딥러닝
MLP · CNN · RNN · 역전파
Attention · Transformer
현대 AI의 심장
대규모 언어모델
스케일링 · RLHF · 추론
생성모델
VAE · GAN · Diffusion · Flow
강화학습 · 멀티모달
AlphaGo · CLIP · VLM
안전성 · 프런티어 · 결론
정렬 · 해석가능성 · AGI
38편의 주요 논문
1943 ~ 2024
📂 파일 구조
E:/aboutAI/
├── index.html ← 이 페이지 (표지)
├── styles.css ← 모든 스타일 (수정 시 전체 페이지에 반영)
├── split.py ← 이 분할을 만든 스크립트
└── chapters/
├── 01-history.html (서론 · 역사)
├── 02-foundations.html (수학 · ML 이론)
├── 03-neural.html (신경망)
├── 04-transformer.html (Transformer)
├── 05-llm.html (대규모 언어모델)
├── 06-generative.html (생성모델)
├── 07-rl-multimodal.html (강화학습 · 멀티모달)
├── 08-safety-frontiers.html (안전성 · 프런티어)
└── 09-references.html (참고문헌)
💡 수정 팁: 디자인은 styles.css만 편집하면 모든 페이지에 반영됩니다.
개별 장의 내용은 해당 chapters/*.html만 수정하면 됩니다.