개요
2026년 현재, 누구나 A.I Agent 사용이 일상화 되었습니다.
사실 일상화라고 하지만, 2022년 11월 30일 chatGPT의 등장 이후로 불과 5년이 😧 채 지나지 않았습니다.
이젠 과거 터미네이터 영화에서나 보던 인류를 위협하는 인공지능이 가까운 현실이 되는
세상입니다.
물론 아직 AGI (Artificial General
Intelligence) 로의 길은 요원하지만
ML First Move들의 논문을 보고 공부하다 보면 어떻게 이토록 짧은 시간에 이렇게 발전하고 새로운 이론이 등장하는지 인류는 정말 대단하고, 그 미래가
기대도 걱정도 됩니다.
개인적으로 A.I 를 가장 효과적으로 사용하는 곳은 ML공부, 수학공부, 코드리뷰,
번역 입니다.
여러분들은 어떤가요? 잘 활용하고 계십니까? 😁
기계학습의 역사
그럼 이런 기계학습은 과연 어떻게 발전해 왔을까요?
저는 아래의 순서로 학습해가고 있지만 제가 아는것은 극히 일부이고 그 타임라인을
한 번 정리하고 싶다는 생각이 들었습니다.
1. Regressin(회귀)
2. 단층퍼셉트론 XOR문제
3. MLP(다층퍼셉트론)
4. CNN(합성곱신경망)
5. ResNet(잔차신경망)
6. Word Embedding(단어임베딩)
7. RNN(순환신경망)
8. LSTM(장단기
기억)
9. seq2seq(시퀀스투시퀀스모델)
10. Attention(어텐션)
11. Transformer(트랜스포머)
왜냐하면 새로운 논문이 나오면 사용하고 문제점을 보완해 다음 기술이 등장했기
때문입니다.
이럴때 A.I 에이전트의 도움이 필요해 Claude 가 초안을 chatGPT가 보완한
결과입니다.
|
| [chatGPT 생성] |
AI를 활용해 정리한 타임라인입니다.
html로 작성하니 이미지보다 깔끔하네요. 역시 A.I는 활용을 잘 해야 합니다.👏
머신러닝 & 딥러닝 역사 타임라인
1940년대 초기 신경망 이론부터 Transformer, GPT, 멀티모달 AI까지. 머신러닝과
딥러닝의 주요 발전 흐름을 시간 순서대로 정리한 타임라인.
FOUNDATION ERA · 1940s–1970s
기초 이론
McCulloch-Pitts 뉴런
Warren McCulloch와 Walter Pitts가 최초의 수학적 뉴런 모델 제안. 인간
뇌를 논리 회로처럼 모델링할 수 있다는 아이디어의 시작.
기초 이론
튜링 테스트
Alan Turing이 "Computing Machinery and Intelligence" 논문 발표. 기계가
인간처럼 사고할 수 있는가에 대한 AI 철학의 기반 마련.
기초 이론
퍼셉트론 (Perceptron)
Frank Rosenblatt가 학습 가능한 최초의 신경망 모델 제안. 단층 퍼셉트론은
선형 분리 문제를 해결할 수 있었고, 초기 AI 붐을 이끌었다.
AI 겨울
퍼셉트론의 한계와 1차 AI 겨울
Minsky와 Papert가 단층 퍼셉트론이 XOR 같은 비선형 문제를 해결하지 못함을
분석. 당시 다층 신경망 학습 방법이 부족해 신경망 연구가 급격히 침체.
NEURAL NETWORK REVIVAL · 1980s
신경망
Neocognitron
Kunihiko Fukushima가 계층적 시각 처리 구조 제안. 이후 CNN(합성곱
신경망)의 직접적인 기반이 됨.
신경망
역전파(Backpropagation) 대중화
Rumelhart, Hinton, Williams가 역전파를 다층 신경망 학습에 효과적으로
적용. 깊은 신경망 학습 가능성이 다시 주목받기 시작.
시퀀스 모델
RNN 본격 연구
Elman Network 등 순환 신경망 구조 연구가 활발해짐. 텍스트·음성·시계열
같은 순서 데이터 처리 가능성 확대.
강화학습
Deep Blue vs Kasparov
IBM Deep Blue가 세계 체스 챔피언 Garry Kasparov를 꺾음. AI가 인간 최고
수준의 전략 게임을 이긴 최초 사례 중 하나.
CNN
LeNet-5
Yann LeCun이 손글씨 숫자 인식을 위한 CNN 모델 LeNet-5 발표. 합성곱
신경망이 실제 산업 문제에 적용되기 시작.
STATISTICAL MACHINE LEARNING · 1990s–2000s
통계 ML
SVM (서포트 벡터 머신)
Cortes와 Vapnik이 SVM 발표. 커널 트릭을 통해 비선형 분류가 가능해지며
오랫동안 강력한 분류기로 사용됨.
RNN
LSTM
Hochreiter와 Schmidhuber가 LSTM 제안. Vanishing Gradient 문제를 크게
완화하며 긴 시퀀스 학습 가능.
앙상블
랜덤 포레스트
Leo Breiman이 랜덤 포레스트 발표. 실용성과 안정성이 뛰어나 산업 현장에서
폭넓게 사용됨.
딥러닝
Deep Belief Network (DBN)
Geoffrey Hinton이 사전학습 기반 Deep Belief Network 발표. 깊은 신경망
학습이 가능해지며 "딥러닝" 시대가 다시 시작됨.
데이터셋
ImageNet 구축
대규모 이미지 데이터셋 ImageNet 공개. 이후 딥러닝 발전의 핵심 벤치마크
역할 수행.
DEEP LEARNING REVOLUTION · 2010s
딥러닝
AlexNet
Alex Krizhevsky, Hinton 연구팀이 AlexNet으로 ImageNet 압승. GPU 학습,
ReLU, Dropout 조합이 딥러닝 시대를 본격적으로 열었다.
NLP
word2vec
Google이 단어 임베딩 모델 word2vec 공개. 단어 의미를 벡터 공간으로
표현하는 방식이 NLP 발전에 큰 영향을 줌.
생성 모델
GAN
Ian Goodfellow가 GAN 발표. 생성자와 판별자의 경쟁 구조로 사실적인 이미지
생성 가능.
NLP
Seq2Seq & Encoder-Decoder
인코더-디코더 구조가 기계번역 성능을 크게 향상. 이후 번역·요약·챗봇
구조의 핵심 기반이 됨.
Attention
Attention Mechanism
Bahdanau Attention 등장. 입력 전체를 고정 길이 벡터로 압축하던 기존
seq2seq 병목 문제 해결.
CNN
ResNet
Skip Connection을 활용한 ResNet 등장. 초깊은 신경망 학습이 가능해지며
컴퓨터 비전 발전 가속.
강화학습
AlphaGo
DeepMind AlphaGo가 이세돌 9단을 상대로 승리. 강화학습과 딥러닝 결합의
가능성을 전 세계에 보여줌.
Transformer
Attention Is All You Need
Google이 Transformer 아키텍처 발표. RNN 없이 순수 Attention만으로
시퀀스를 처리하며 NLP 구조를 완전히 바꿈.
LLM ERA · 2018–PRESENT
LLM
BERT & GPT-1
Google의 BERT와 OpenAI GPT 등장. 대규모 사전학습 후 파인튜닝하는
패러다임이 확립됨.
LLM
GPT-3
OpenAI가 1750억 파라미터 GPT-3 공개. Few-shot Learning과 프롬프트 기반
사용 방식이 폭발적으로 확산.
생성 AI
Diffusion Models
DDPM 기반 Diffusion 모델 등장. 이후 Stable Diffusion과 DALL-E 2 등
고품질 생성 모델 시대의 기반이 됨.
대중화
ChatGPT & RLHF
RLHF 기반 ChatGPT 공개. 대화형 AI가 일반 사용자에게 대중화되는 결정적
전환점이 됨.
이미지 생성
Stable Diffusion
오픈소스 이미지 생성 모델 Stable Diffusion 공개. 생성형 AI 생태계가
급속도로 확장되기 시작.
멀티모달
GPT-4 & 멀티모달 AI
텍스트·이미지·코드를 동시에 이해하는 멀티모달 AI 경쟁 시작. 범용 AI
플랫폼 시대로 빠르게 진입.
AI 에이전트
추론 모델 & AI 에이전트
Chain-of-Thought, Tool Use, Multi-Agent System, 추론 중심 모델이
발전하며 AI가 단순 생성에서 행동 가능한 시스템으로 진화 중.
아직은 "편리한 백과사전" 처럼 사용하고 있지만 미래에는
친구 😀 가 될 수 있을지 기대됩니다.
감사합니다.
댓글
댓글 쓰기