HISTORY OF AI
AI는 어디서 시작되었을까? 영국의 수학자 앨런 튜링(Alan Turing)이 이 거대한 패러다임의 시초이다. 그는 "기계가 생각할 수 있나?"라는 물음에서 시작하여 The Turing Test를 진행하였다. 그는 인간과 유사하게 반응하는 기계를 인간인지 기계인지 구분하지 못하는 것을 지능의 존재 기준으로 삼았다. 앨런 튜링이 ai에 대한 철학적 물음을 던져주었고 다트머스 회의는 '인공지능'이라는 학술적 분야로 정립시켰다.
그 후에는 기호주의(Symbolism)를 따라 인간이 기계에게 일일히 input과 output을 입력해주는 방식으로 개발하였다. 그러나 기대치에 비해 하드웨어 성능이 너무 낮았고, 복잡한 현실 문제를 해결하기에는 논리 규칙이 턱없이 부족했다. 정부의 투자가 끊기며 정체기를 맞이한다.
그러다 전문가 시스템이 등장하였고 분야 별 방대한 전문지식을 컴퓨터에 입력하는 방식이었다. 기업들이 전문가 시스템을 도입하며 실효성을 인정 받았지만, 유지 보수 비용이 너무 크고 상식적인 판단을 내리지 못하는 '데이터 늪' 문제(지식 획득의 병목 현상)가 있어 투자가 위축되었다.
반전은 1990년대 후반에 나타났다. 컴퓨터 성능이 고도로 발달하고 빅데이터가 등장하여 머신러닝의 시대가 열렸고 딥러닝이 발달하며 AI의 시대가 도래했다. 현재는 AI에서 AGI로 나아가는 과도기이다. AI가 더이상 특정 분야에 특화되지 않고 범용적으로 사용가능하다는 의미이다.
왜 AI는 어려웠을까?
이유는 다양하다. 하나씩 알아보자.
- 모라벡의 역설 (Moravec's Paradox)
"쉬운 것은 어렵고, 어려운 것은 쉽다." 이것이 로봇 공학자 한스 모라벡의 역설이다. 이게 무슨 뜻일까? 말 그대로이다. 기계는 인간에게 어려운 복잡한 수학 문제 등의 고도의 사고는 쉽고, 인간에게 쉬운 '사과를 보고 사과임을 인지하기', '걷기' 등은 어렵다.그렇다면 왜 인간에게 쉬운 것들이 기계에게는 어려울까? 인간은 초기 유인원부터 수백만년 동안 진화해 왔다. 우리가 자연스럽게 하는 행동, 직관은 긴 진화를 통해 우리의 신경계와 몸에 각인된 데이터로 볼 수 있다. 그렇기에 기계는 이 복잡한 진화의 산물을 수식화, 데이터화 해야하기 때문에 어려운 것이다.
- 기호주의
인간이 하나 씩 규칙을 정의해줘야 한다는 것은 생각보다 훨씬 중대한 문제였다. 기계에게 사과를 학습시킨다고 해보자. 그러면 "둥글고, 빨간 것"이라고 입력을 할 것이다. 그런데 기계가 둥글고 빨간 공을 떠올렸다면? 또는 인간이 사과의 자른 단면 모습을 보여준다면? 작업을 할 때 고려해야할 변수와 다양함이 거의 무한에 가깝다. 그러나 이 문제는 획기적으 해결되었다. 딥러닝(Deep Learning)의 등장에서 부터이다. 이는 생각보다 단순한 해결책이었다. 아기에게 무언가를 배울 때 우리가 "둥글고 빨간 건 사과야.", "귀가 뾰족하고 털이 있는 건 고양이야."하고 학습시켜서 이를 배우게 되는게 아니다. 사과와 고양이를 여러번 보고 "이건 사과이구나", "이건 고양이구나."를 학습한다. 이 원리를 인공지능에도 적용시켜 기계에 수만장의 사과 사진을 보여주며 학습시키는 것이다. 다시 말해, 기호주의는 인간이 '규칙'을 주는 것이고, 딥러닝은 기계가 '데이터'에서 스스로 규칙을 찾는 것이다. 그래서 무한히 다양한 변수에 대응할 수 있게 된다. 하지만 기계가 '왜' 그렇게 판단했는지를 알아내는 것은 아직 달성되지 못한 미해결 과제이다.
- 하드웨어와 데이터의 부재
기계를 학습시키려면 그에 필요한 고성능의 하드웨어와 학습시킬 데이터가 필요하다. 하지만 시대적으로 당시의 기술력으로는 충분히 고성능인 컴퓨터, 즉 GPU가 개발되지 않았고 애초에 방대한 양의 데이터가 아직 존재하지 않았다. 그 당시에도 cpu는 이 개발되어 있었지만, 인공지능을 학습시키기 위해서는 AI 학습에 특화된 '병렬 연산'이 가능한 GPU가 필요했다. 인간이 공부를 하려면 두뇌와 공부할 책이 필요한 것처럼 말이다. 후에 인터넷이 널리 보급되며 사용의 빈도가 높아지며 데이터는 자연스럽게 축적되어왔다. 특히 스마트폰과 SNS의 등장은 인류 역사상 유례없는 '빅데이터' 시대를 열었고, 게임 산업의 발전으로 탄생한 GPU가 AI 학습의 강력한 엔진 역할을 하게 되면서 비로소 인공지능은 폭발적인 성장을 이룰 수 있게 되었다.
- 차원의 저주
이 문제는 현시점에서도 중요한 과제로 여겨진다. 데이터 학습 잘하고 GPU도 있는데 이제 다 끝난거 아니냐는 생각을 할 수 있다. 그러나 그것은 큰 오산이다. 위에서 언급했다시피 인공지능 학습에는 방대한 양의 데이터가 필요하다. 그러나 데이터가 많아지면 생기는 문제가 '차원의 저주'이다.
정확히 말하자면 데이터의 '종류'이다. 예를들어 단순히 데이터가 많아지는 상황으로는 사과 사진을 100장에서 10000장으로 늘리는 것이다. 반면, 데이터의 '종류'가 많아지는 것은 사과를 분석할 때 색, 모양, 크기, 당도 등 고려해야하는 변수가 많아지는 것이다. 데이터의 종류가 늘어나는 것은 차원이 늘어나는 것이다. 차원은 하나 씩 늘어날 때마다 그 공간의 크기는 기하급수적으로 커진다. 예를 들어 한 줄(1차원)에 10개의 블록이 있었는데 이를 2차원의 평면으로 늘리면 10x10=100개가 되는 것처럼 말이다.

차원이 기하급수적으로 늘어나지만 데이터의 양은 이 속도에 맞게 늘어나지 않는다. 차원이 늘어남에 따라 필요한 데이터가 충족되지 못해 데이터가 넓은 바다에서 길을 잃는 상황이 온다. 무언가를 정확히 판단하려고 하다가 지금가진 방대한 양의 데이터가 모래알처럼 보이게 된 것이다. 이것이 난제인 이유는 차원이 는다는 것은 n차 방적식에서 구해야하는 미지수의 개수인 n이 늘어나는 상황과 같기 때문이다.
학습기반 AI, 이것은 완전무결한가?
학습기반 AI는 완벽해 보인다. 곧 인류를 집어 삼킬 것 같다는 공포를 심어주면서 말이다. 이렇게 완전해 보이는 고도로 발달한 AI도 한계가 존재한다. 다양한 기술적, 윤리적 문제가 있지만 큰 두개의 화제를 소개하겠다.
1) Data Dependency
직접 번역하자면 데이터 의존성이다. '학습' 기반 AI에서 가장 중요한 것은 학습을 시킬 데이터이다. 단순히 많은 양의 데이터를 학습시키는 것만이 중요한 게 아니라 어떤 데이터를 학습시키냐도 매우 중요하다. 'Garbage in Garbage out'이라는 말이 이 문제를 설명한다. 잘못된 데이터를 넣어주면 잘못된 결과물을 내놓는다는 것이다. AI가 생성한 데이터가 기하급수적으로 늘어나는 상황에서 잘못된 데이터를 학습한다면 잘못된 결과를 내놓고 이를 다시 새로운 데이터로서 학습하는 악순환이 벌어진다.
'데이터 편향' 또한 문제이다. 학습된 데이터가 편향을 담고 있을 때 발생한다. 쉽게 생각해보자. 흑인 차별이 심했던 시기, 흔히 말하는 좋은 직장에서 흑인 채용은 적었을 것이다. 이를 AI가 학습하면 백인이 흑인보다 업무 처리 능력이 좋다는 잘못된 편향 정보를 학습할 수 있다.
많은 사람들은 데이터가 부족한 문제는 해결이 되었다 생각한다. 맞는 말이지만 틀린 부분도 있다. 인공지능은 여전히 예외에 대한 학습이 부족하다. 다양한 돌발 변수, 예측하지 못한 상황 등에 취약하다는 뜻이다. 말 그대로 '예외'이기 때문에 이를 학습시킬 데이터는 소수이다. 자율주행 자동차가 운전을 잘하다가도 특수한 형태의 차가 등장하거나, 기상 프로그램이 기상 이변을 만나는 상황처럼 말이다.
위에 AI가 만든 데이터를 AI가 다시 학습하는 상황을 언급한 바 있다. 이는 잘못된 결과를 내놓는 문제 뿐 아니라, 다양성이 줄어드는 문제가 있다. 이 상황을 Model Collapse라고 부르기도 한다. 근친교배가 유전적으로 결함을 일으키듯이 AI가 만든 데이터를 계속 학습하면 지능의 다양성이 줄어들어 잘못되고 왜곡된 정보를 내놓게 된다.
2) Black Box
위에 잠시 언급 했었는데, 이는 인간이 인공지능의 판단과정은 이해하지 못한 채로 input과 output만 볼 수 있는 상황이다. 왜 우리는 이해할 수 없을까?
우선 특히 LLM (대규모 언어 모델)과 같은 대형 딥러닝 모델들은 내부에 수천억에서 수조 개의 매개변수(parameter)가 존재한다. 방식을 풀 때 변수가 많아지면 풀기 어려워지지 않는가? 인간의 뇌로 수천억번의 연산과정을 추적하고, 수천억개의 변수를 이해하는 것은 불가능하다.
또한 학습 기반 AI는 데이터를 매우 높은 차원의 공간에 점으로 뿌려놓고 그 사이의 복잡한 경계선을 찾는다. 모델의 내부는 비선형적이다. 흔히 떠올리는 1차원, 2차원, 3차원 수준이 아닌 초고차원 환경이기 때문이다. 인간은 이를 인간의 언어로써의 수식으로 표현하고 해석할 수 없다.
그렇다면 AI의 미래는 어떠할까?
AI의 미래, 테크 기업들은 어떻게 될까? 미래를 내다보기 위해서는 과거를 들여다 보는 것 만큼 중요한 것이 없다. internt의 역사는 어땠을까.
초기에 TCP/IP라는 것이 생겼다. 당시에는 전문가들만이 이것을 다룰 수 있었다. 잠재적으로는 모든 사람을 이어주었지만, 기술을 이해한 사람은 소수였기에 불가능에 가까웠다.
이후에 브라우저가 개발되며 많은 사람들이 쉽게 인터넷을 사용하게 되었다. 인터넷 쇼핑,온라인 대화 등이 많은 소비자들의 관심을 끌었다. 잘나가던 기업들은 이를 예측 했을까? 답은 '아니오'였다. 공학자들에게 쇼핑과 사교같은 소재가 흥미롭지도 않고 이것이 얼마나 일반 소비자들에게 중요한지 몰랐다. 결국 살아남은 것은 소비자가 원하는 것을 먼저 파악한 기업이었다. 오늘날의 테크 기업도 마찬가지일 것이다.
"AI를 통해 만족시킬 니즈는 무엇인가?", "과연 그들이 원하는 것인가?", "필요한 것인가?"를 끝없이 고민하고 나아가는 것이 현재 거대한 변화의 파도에 있는 테크 기업에서 중요하다.
오늘날의 우리는
앞으로의 미래를 바라보는 세간의 시야는 두 갈래로 나뉜다. 'Utopia'와 'Dystopia'이다. 나의 개인적인 견해는 Dystopia를 예측한다. Utopia를 생각하는 사람들은, 물론 그 사람들 끼리의 차이도 존재하지만, AI가 가져다 줄 베네핏이 너무 크기 때문에 현재의 근시안적인 관점으로 보이는 문제점들에 너무 집착하면 안된다는 것이다. 최대한 빨리 이를 개발하고 AI가 세상의 대부분의 문제를 해결해줄 날이 올 것이라 생각한다. Dystopia를 생각하는 사람들은 인간으로서의 지위 박탈을 예상한다. 인공지능이 우리를 대체하고, 인간의 삶을 장악하여 인간으로서 유의미한 삶과는 거리가 멀어지게 한다는 것이다. 요즘은 종교까지 나타난다. AI가 우리를 지배할 것이 확실하므로 차라리 납작 엎려 기도하고 숭배하자는 생각이다. 이러한 양극단의 의견 사이에 스펙트럼처럼 다양한 생각들이 물론 존재할 것이다. 그러나 요즘같이 양극화된(Polarized) 세상에서 큰 의미가 있을까 하여 그냥 극단의 생각들만 소개하겠다.
이러한 우려들 속에서 utopia일지 dystopia일지 결정된 것은 없다. 하지만 AGI 개발은 확실시 되어간다. 예측 시점의 차이일 뿐이다. 인공지능이 인간의 지적 능력을 범용적으로 사용하는 세상이 올 것이라는 뜻이다. 학자들은 현재의 시점을 GOLDEN HOUR이라고 한다. AGI가 개발되기 전, 미래를 준비할 시간은 지금이다. AGI가 개발된 후에는 우리가 생각할 시간을 주지 않을 것이기 때문이다. 한 명의 인간으로서 우리는 끊임 없이 미래를 고민해야한다. 살아남기 위해서 말이다.
'책 내용 정리+독후감' 카테고리의 다른 글
| 성해나 작가 단편소설 [혼모노]: 흉내가 진짜가 되는 순간 (0) | 2026.02.13 |
|---|---|
| 로마는 '노예' 때문에 망했고, 우리는 'AI' 때문에 망할 것인가? (1) | 2026.01.29 |
| 삼성 갤럭시가 '제2의 MP3'가 될 수도 있는 이유 (1) | 2026.01.20 |
| 진실보다 자극을 쫓는 시대, 분별력을 고민하다 (1) | 2026.01.13 |
| 21살의 고민: AI 시대, 나는 왜 언어를 배우려 하는가 (3) | 2026.01.08 |