인간의 인식 능력 수준까지 도달하는 장비는 이 세상에 존재하지 않는다
Melanie Mitchell은 “Artificial Intelligence: A Guide for Thinking Humans(1)”에서 오늘날의 인공지능 시스템이 인간과 같은 지능과는 거리가 멀다고 분명히 주장한다. Melanie Mitchell는 인공지능이 상식적인 추론 능력이 부족하며 인간처럼 지식을 일반화할 수 없다고 강조한다. 즉, 사람은 하나의 경험이나 사례에서 배우고, 그 학습 내용을 비록 상황이 완전히 똑같지는 않더라도 새롭고 다양한 상황에 적용하는데, 인공지능은 그러지 못한다는 것이다.
예를 들어, 뜨거운 난로에 손을 대다가 화상을 입는 경우가 있다. 그리고 나서 다음에 뜨거운 접시를 보게 되면 만지지 않으려고 할 것이다. 즉, 한 상황에서 배운 것을 다른 상황에 적용하는 것이다. 또 다른 예로, 자전거 타는 법을 배우고 나면, 그 기술을 활용하여 다양한 도로와 경사로가 있는 여러 곳에서 자전거를 탈 수가 있다. 결국, 배운 것의 본질을 받아들이고, 새로운 변화하는 상황에 적용하는 능력을 바로 “일반화 한다”라고 하는 것이다.
인공지능이 인간처럼 지식을 일반화할 수 없다고 한다. 예를 들어, 인공지능은 이미지에서 고양이를 인식하거나 한 언어를 다른 언어로 번역하는 등의 특정 작업에는 매우 능숙할 수 있지만, 설정을 조금만 변경해도 자주 실패한다. 예를 들어, 깨끗한 고양이 사진을 여러 장 학습한 인공지능은 반쯤 가려져 있거나 이상한 환경에 있는 고양이를 보면 혼란스럽게 여길 수 있다. 사람은 살아오면서 수많은 다양한 사례를 접해 왔기 때문에 이런 문제를 거의 겪지 않는다. 따라서 “일반화”는 훈련을 받은 특정 사례를 넘어서서 상황이 이전과 똑같지 않을 때라도 그 상황에 적응하는 능력을 나타낸다.
사실상 세상에는 무한한 변화가 있기 때문에 “모든 상황을 배운다”는 것은 불가능하다. 그래서 “일반화”라는 표현을 사용하고, 이런 것이 더 정확하다. 단순히 이전에 했던 것을 그대로 반복하는 것이 아니라, 몇 가지 경험에서 배우고 그 통찰력을 광범위하게 적용하는 것을 의미한다.
그리고 Melanie Mitchell은 “Why AI Is Harder Than We Think(2)”에서 인공지능 연구에서 흔히 나타나는 오해들을 간략하게 설명하며, 인간과 같은 상식과 유연한 사고를 갖추기 어려워 발전이 더딘 이유를 보여준다.
Melanie Mitchell은 최근 인공지능의 획기적인 발전에도 불구하고, 진정으로 인간과 유사한 지능을 만드는 것은 많은 사람들이 생각하는 것보다 훨씬 더 복잡하다고 지적하며, 인공지능의 발전에 대한 과신으로 이어지는 네 가지 주요 오류를 지적한다.
첫째, 좁은 지능과 일반 지능에 대한 것인데, 체스 두기나 텍스트 분석과 같은 특정 작업에서 성공했다고 해서 반드시 일반적이고 유연한 지능에 가까워지는 것은 아니라고 하면서, 인공지능은 기술을 광범위하게 적용하거나 새로운 상황에 적응하는 데 어려움을 겪는다고 했다. 일반적으로 표현하면 인공지능을 인간처럼 지식을 일반화하는데 어려움을 겪는다는 말이다.
인공지능이 학습할 때는 대개 매우 구체적인 사례, 예를 들어 수천 장의 고양이 사진에서 고양이를 인식하는 것처럼 학습한다. 인공지능은 이러한 작업에는 매우 능숙해지지만, 만화 고양이나 모래 위에 그려진 고양이처럼 약간 다른 것을 보여주면 혼란스러워할 수 있다. 인공지능은 사람처럼 고양이가 무엇인지 진정으로 이해하지 못하기 때문이다. 단지 이전에 본 패턴을 인식할 뿐이다.
반면에 인간은 일반화하는 데 매우 능숙하다. 고양이가 무엇인지 알게 되면 사진이나 그림에서, 심지어 누군가가 고양이에 대해 설명해 주어도 알아볼 수 있다. 지식을 새로운 상황에 적용할 수도 있는데, 이는 인공지능이 여전히 어려움을 겪는 부분이다.
다시 말해서, 인공지능은 한 환경에서 학습한 내용을 다른 환경에서 원활하게 활용하지 못하는 경우가 많다는 것을 의미한다. 인공지능은 사람에게 자연스럽게 나타나는 유연하고 큰 그림을 이해하는 능력이 부족하다는 것이다.
둘째, 쉬운 일은 어렵다고 하고, 오히려 어려운 일은 쉽다고 한다는 것이다. 예를 들어 얼굴을 인식하거나 방 안을 탐색하는 것처럼 인간에게는 쉽게 느껴지는 일이 오히려 기계에게는 놀라울 정도로 어렵다는 것이다. 반대로, 복잡한 논리나 바둑, 체스와 같은 게임은 인공지능에게는 더 간단할 수 있다. 이는 Moravec’s Paradox(3)로 잘 알려진 현상이다.
셋째, 왜곡되고 모호한 표현에 대한 것인데, “이해하다” 또는 “학습하다”와 같은 용어는 인공지능 맥락에서 자주 모호하게 사용되는데, 이는 지능에 대한 잘못된 인상을 심어 준다. 이러한 용어는 인공지능의 실제 어떤 것까지 할 수 있는 지 그 능력을 왜곡할 수 있다.
넷째, 지능은 두뇌에만 있는 것이 아니라는 것이다. 지능은 신체적 경험과 깊이 연관되어 있다고 했다. 체현(구체화)을 무시하는 인공지능 연구는 인간 인지의 근본적인 측면을 놓칠 수 있다는 것이다.
Melanie Mitchell는 오늘날의 인공지능 시스템이 이미지 인식, 언어 번역, 텍스트 생성 등과 같은 부분에서는 매우 놀랍고 인상적인 성과를 보이고 있지만, 이러한 성공이 기계가 사람처럼 세상을 진정으로 이해한다는 것을 의미하지는 않는다고 주장하는 것이다. 가장 중심이 되는 어려움은 Melanie Mitchell이 상식이라고 부르는 것, 즉 사람이 일상에서 손쉽게 활용하는 미묘하고 맥락이 풍부한 지식에 있다는 것이다.
Melanie Mitchell이 이야기하고자 하는 것은 사람이 자기 자신을 물론, 사람에 대한 판단을 매우 좁게 가지고 가는 것이 근본적인 이유라고 말하는 것으로 이해된다. 사람들이 인공지능이 자신들이 가지지 못하는 능력을 지녔다고 해서 곧 사람처럼 될 것이라는 판단은 기계보다 부족한 자신에 대한 판단을 피해보려는 생각에서 나오는 표현일 수가 있다는 것이다. 즉, 인간을 앞질렀다고 하지 않고, 인간에게 가깝게 다가오고 있다는 생각으로 안심을 가질 수 있기 때문인 것이다. 중요한 것은 인공지능과 사람은 전혀 같지 않다는 것이다. 인공지능이 어려움을 겪는 것이 아니라 인간은 어떤 기계로도 대체할 수 없는 전혀 다른 차원에서 아직 밝혀지지 않은 많은 부분이 많이 있다는 것이다. 그것을 인공지능에 지능을 주는 인간이 알지 못하면, 그 인공지능은 결코 인간과 같아질 수도 없으며, 인간과 같아지려고 해서도 안되고, 또 사람들이 그렇게 여겨서도 안된다.
위에서 지적한 과신으로 인한 오류에 대해 전체적으로 추가적으로 인공지능이 가지는 어려움도 있다. 한마디로 사람은 결코 정보를 고립된 상태로 해석하지 않는다. 사람들의 세상에서 문구, 이미지 또는 행동은 문화, 경험, 배경 지식이 담긴 더 넓은 맥락 속에서만 의미를 가진다. 또한 사람은 한 상황에서 교훈을 얻었다면, 이것을 다른 상황에 유연하게 적용할 수 있는 능력을 가지고 있다. 이것을 일반화라고 부른다고 했다. 또한 인간의 지능의 상당 부분은 체화 된 존재, 즉 세상을 움직이고, 만지고, 인지하고, 인터랙션 하는 존재로부터 비롯된다. 과연 인공지능에 이러한 든든한 기반이 있을까?
DAGENAM과 MASERITNS는 전부를 이루지는 못해도 인간들의 이런 부분을 닮아가도록 개념적 디자인을 해가고 있는 것이다. 예를 들어 DAGEMAN은 개념적으로 과거 경험 데이터를 두뇌의 본질적 욕구에 반하여 거꾸로 작은 ‘조각경험’들로 분리하고, 그 조각경험들을 새로운 조합으로 만들어 결합하고 이로써 새로운 ‘간접경험’을 창출한다.
이 무궁무진한 무한대에 가까울 수 있는 ‘간접경험’을 보유함으로써 DAGENAM이나 MASERINTS는 MASERINTS의 지원과 도움을 받아야 하는 주인공인 PTS(Person to be served)가 되는 ‘나’를 이해하려고 하는 것이다. 그래서 이 무수히 많은 계속 쌓여만 가는 ‘간접경험’은 무수히 많지만, 모두 PTS로 존재하게 될 ‘나’와 연관성이 있는 ‘간접경험’이 되는 것이다.
MASERINTS는 PTS만을 이해하려고 하면 된다. 물론 이러한 방법으로 PTS를 모두 이해한다고 할 수는 없을 수 있다. 하지만, 사람이 사람을 이해하는 데는 우선 그 사람이 가지고 있는 문화, 성격, 주변 환경, 기억, 경험, 습관, 언어 등도 매우 중요하기 때문에 PTS와 연관된 ‘간접경험’은 PTS를 이해하는데 매우 중요한 역할을 할 수 있는 것이다. 그리고 이러한 이해가 단지 하나의 로봇에 집중한 것이 아니라 PTS가 푹 젖어 있게 될 이 공간에 그 결과를 적용하고 PTS를 위한 지원과 도움으로 그 결과가 나타나도록 하는 것이다. “스마트한 디지털 공간”이라는 말을 먼저 붙이고 싶은 것도 그 만큼 PTS를 잘 이해한다는 의미를 부여하기 때문이다.
그래서 Melanie Mitchell의 우려처럼 MASERINTS가 가지려는 지능은 단순한 연산 능력이나 무지 커다란 기억장소가 아니라 맥락, 기억, 그리고 체화 된 경험에서 의미를 엮어내는 공간으로 PTS에게 남아 있으려는 것이다. 이렇게 MASERINTS가 여러 터미널 시스템과 컴퓨터 디바이스들을 활용하여 매우 섬세하게 관찰되는 단서를 이해하고, 자연스럽고 차분하며 PTS가 가질 수 있는, 아니 그 이상으로 거의 직관적은 방식으로 PTS의 상황과 맥락적인 요소를 이해하게 될 실마리를 가지게 된다는 것이다.
MASERINTS는 인간처럼 되고자 하는 것이 아니라 모든 것이 PTS에게 집중되어 있다. 또 그렇다고 다른 하나의 PTS가 되려는 것도 아니다. 다만, PTS의 경험을 엄청난 량의 ‘간접경험’으로 증폭하고, 기억의 모든 흔적을 하나도 잊어버리지 않고 보존하며, 지원과도움을 줄 수 있는 맥락적 요소를 구축하려고 계속 시도하는 것이다. 이것은 단지 PTS를 이해하기 위한 것이다.
Mitchell은 인공지능이 사람들의 생각과 다르게 다른 차원으로 봐야 하는 이유를 보여준다. DAGENAM과 MASERINTS는 사람들이 인공지능에 대해 어떻게 다르게 생각할 수 있는지 보여준다. 즉, 인공지능을 인간 지능을 대체하려고 하면 안되는 것이고, PTS라는 단 한 사람의 삶의 흐름 속에서 조용하고 PTS의 주변 맥락에 맞게, 그리고 의미 있게 작용하는 동반자로 남아 있으려는 것이다.
Melanie Mitchel의 이 책은 기술적 배경 지식이 없는 독자를 대상으로 인공지능의 역사, 현재 역량, 그리고 미래 전망에 대한 깊이 있고 이해하기 쉬운 안내서라고 한다. Melanie Mitchel은 인공지능의 유행어들을 걷어내고, 사람들이 ‘AI’ 혹은 ‘인공지능’이라고 부르는 것은 실제로 특정 작업을 위해 디자인된 다양한 방법과 시스템의 집합이지, 단일 지적 존재가 아니라고 설명하고 있다.
Melanie Mitchel은 인공지능이 끊임없이 과대광고와 실망의 악순환을 반복해 왔다고 강조하며, Melanie Mitchel은 이를 “AI winters”라고 불렀다. 오늘날의 도구들이 비록 놀라울 정도로 인상적이기는 하지만, 사람들이 은연 중에 당연하게 여기고 있는 심오한 상식은 여전히 부족하다는 사실을 사람들은 점점 깨닫게 된다고 했다.
Melanie Mitchel은 특히 “의미의 장벽(Barrier of Meaning)”에 초점을 맞춰 인공지능 시스템이 데이터 패턴을 완벽하게 처리하면서도 실제 세상의 맥락이나 결과를 파악하지 못하는 이유를 설명한다(4).
Melanie Mitchel은 훈련 데이터의 편향, 윤리적이고 신뢰할 수 있는 인공지능에 대한 위협, 그리고 인공지능의 역량을 과대평가하는 것의 위험성과 같은 어려운 문제들을 회피하지 않았다(5).
Melanie Mitchel의 메시지는 분명하다. 한마디로 오늘날의 인공지능은 강력하게 보이지만, 실제로 취약하다는 것이다. 좁은 영역에서는 강하지만, 더 넓은 영역에서는 약하다고 줄곧 이야기해 왔다. 여기에는 MASERINTS의 비전과 연관된 부분이 있다.
현재 인공지능은 패턴을 처리하지만 진정한 맥락을 제공하지 못한다. 하지만, MASERINTS는 일반적으로 사람이 기억을 활용하여 의미를 형성하는 방식을 흡수하여 ‘간접경험’의 무수한 창출로 경험을 재구성하고자 한다. MASERINTS는 거대한 일반 지능을 추구함을 물론 병행해서 진정으로 중요한 것, 즉 살아 숨쉬는 체화된 경험에 집중하려는 것이다. 그러나 이 부분에서 중요한 것은 MASERINTS는 일반적인 사람과 같아지려는 것도 아니고, 이해하려는 것도 아니다. 다만 MASERINTS는 PTS를 이해하기 위해 이 ‘간접경험’을 창출하는 것이다.
Melanie Mitchel은 인공지능 시스템이 통제된 환경에서는 최상의 성능을 발휘하지만 익숙하지 않은 맥락에서는 불안정하다고 강조한다. MASERINTS는 DAGENAM처럼 경험을 무수히 작은 ‘조각경험’과 ‘단위경험’으로 나누고, 다른 조합으로 결합하고, 그 결합에 PTS의 삶의 의미를 부여하여 PTS만의 ‘간접경험’을 창출하고 그것을 PTS가 살아 있는 동안 보전하게 된다. MASERINTS는 맥락적 자각이 가능하도록 디자인을 통해 실제 PTS의 요구를 더욱 효과적으로 적응하고 예측할 수 있도록 지원한다. 불안정한 시스템의 세계에서 MASERINTS는 차분하고 사람인 PTS를 우선 시하는 PTS 중심적인 접근 방식을 제시한다(1).
철학자 Hubert Dreyfus(6)는 인공지능의 한계에 대하여 [What Computers Can’t Do(7)]와 같은 저서들을 통해 인간의 지능은 컴퓨터 논리와 근본적으로 다르다고 주장했다. 그는 기계가 복제할 수 없는 사람들의 직관적이고 맥락에 민감한 “노하우”에 초점을 맞췄다.
Hubert Dreyfus는 특히 1970년대 초기 인공지능 시대에 컴퓨터가 과대평가되고 있다고 주장했다. 그는 사람의 지능과 기술은 규칙과 상징만으로는 완전히 정의될 수 없다고 주장했다. 사람들이 아는 것의 상당 부분이 암묵적, 즉 의식적으로 규칙을 따르지 않고 행하는 것들이기 때문이라고 했다.
Hubert Dreyfus는 철학, 특히 Heidegger와 Merleau-Ponty의 사상을 인용하며, 인간 지능은 세상 속에 체현되어 있으며, 맥락과 경험이 사람들을 인도한다고 주장했다.
당시 컴퓨터는 이러한 체현적 기반이 부족했기 때문에 지능이 제한적이었다고 한다. 즉, 사람들의 지능은 진공 속에 떠다니는 것이 아니라, 현실 세계에서 움직이고, 감지하고, 행동하는 신체를 가지고 있다는 사실과 연결되어 있다는 것이라고 한다. 다시 말해서, 지능이 두뇌에만 있는 것이 아니라는 것이다.
예를 들어, 길을 걸을 때 균형을 유지하거나 주변 사람들이 어떻게 움직일지 예측하기 위해 의식적으로 물리 방정식을 계산할까? 그렇지 않다. 몸, 감각, 그리고 과거 경험이 모두 함께 작용하고 어우러져 사람들을 매끄럽게 이끄는 것이다.
결국, 맥락적인 측면에서 보면, 사람들이 어디에 있는지, 주변에서 무슨 일이 일어나고 있는지에 따라 달라진다는 것이다. 맥락이 의미를 형성한다는 것이다.
저녁 식사 자리에서의 다정한 미소는 긴장된 협상 자리에서 그런 미소를 짓는 것과는 매우 다른 의미를 지닌다. 사람들의 지능이 작동하는 이유는 세상에서의 사람들이 경험하는 체화와 기억과 습관, 그리고 문화로부터의 경험을 활용하여 상황을 유연하게 해석할 수 있기 때문이다.
다시 말해서 인공지능이라는 컴퓨터가 어려움을 겪는 이유는 신체도 없고, 경험도 없기 때문이라는 것이다. 그래서 사람의 지능이 그토록 풍부하다는 것을 보여주는 것이다. 물리적 세계와 그 안에서 살아가는 데 따르는 미묘하고 말로 표현되지 않는 모든 것들과 깊이 연결되어 있기 때문이다.
MASERINTS는 Hubert Dreyfus가 비판했던 경직된 상징적 인공지능을 넘어서려고 하는 것이다. MASERINTS는 맥락이나 흔적, 그리고 예측을 함께 엮어내는 역동적인 디지털 공간이 되도록 개념적 디자인이 되고 있다. MASERINTS는 PTS가 가진 한정된 경험뿐만 아니라 이러한 경험을 확장하고 창출하여, 끊임없는 주의력을 요구하지 않고도 PTS의 요구와 필요에 매끄럽게 적응하는, 차분하고 어디에나 존재하는 디지털 공간에 지능을 심어준다. 그리고 이 지능은 모두 PTS를 이해하는데 사용되는 것이다.
기존의 상징적 인공지능은 모든 가능성을 명확한 규칙으로 체계화하는 데 집착하기 때문에 실패할 수 있지만, MASERINTS는 지능이 맥락과 경험의 패턴에서 발현되어야 한다는 개념을 받아들이는 것이다. 이러한 의미에서, MASERINTS는 PTS 삶의 풍요로움을 규칙과 상징으로 단순화하려는 시도가 아닌, 그 풍요로움을 인정하는 시스템을 구축해야 한다는 Hubert Dreyfus의 요구를 충족하고 있는 것이다. MASERINTS는 단순히 계산하는데 그치는 것이 아니라, PTS의 경험의 암묵적인 계층을 예측하고, 적응하고, 공명한다. 이는 진정한 지능은 그것이 살아가는 세상과 분리될 수 없다는 Hubert Dreyfus의 통찰을 나타낸다. 역시 여기서도 가장 중요한 것은 MASERINTS는 자신의 지원과 도움의 중심에 있는 PTS만을 위해 이 모든 일을 하게 된다. 인간 전체에 적용가능한 보편적인 규칙이 아니라, PTS만을 위한 공간이 되기 위해 이 모든 노력을 하고 있다는 것이다.
Hans Moravec(8)는 감각 지각이나 움직임처럼 사람이 쉽게 수행하는 작업이 기계에게는 엄청나게 어렵다는 것을 관찰했다고 한다. 반대로 체스처럼 인간에게 “어려운” 작업은 컴퓨터에게는 비교적 쉽다는 것이다.
다음에 제공되는 자료들은 전문가들이 오늘날 어떤 기계도 인간의 인지 능력에 미치지 못한다고 말하는 이유를 이해하는 데 도움이 되는데, 노력이 부족해서가 아니라, 인간의 사고, 지각, 적응 방식에 근본적인 차이가 있기 때문이라고 한다(9).
언급된 각주의 내용
(1) Artificial Intelligence: A Guide for Thinking Humans, Melanie Mitchell, 2019, https://en.wikipedia.org/wiki/Artificial_Intelligence%3A_A_Guide_for_Thinking_Humans, https://www.santafe.edu/news-center/news/new-book-melanie-mitchells-artificial-intelligence-exposes-ais-limits
>> Artificial Intelligence by Melanie Mitchell: 14 Minute Summary, 2025.2.21, https://www.youtube.com/watch?v=3OtmV6stfbo
(2) Why AI is Harder Than We Think, Melanie Mitchell, 2021, https://arxiv.org/abs/2104.12871
>> Why Artificial Intelligence Is Harder Than We Think: My Long-read Q&A with Melanie Mitchell, https://www.aei.org/economics/why-artificial-intelligence-is-harder-than-we-think-my-long-read-qa-with-melanie-mitchell
>> Effective Altruism Forum, https://forum.effectivealtruism.org/posts/C94JhsbSfZ8iPNedy/why-ai-is-harder-than-we-think-melanie-mitchell
(3) Moravec’s paradox, 2025.6.6, https://en.wikipedia.org/wiki/Moravec%27s_paradox
(4) The summary of “Artificial Intelligence: A Guide for Thinking Humans” by Melanie Mitchell, Tayzaraung, 2023, https://medium.com/%40tayzaraung.reporter/the-summary-of-artificial-intelligence-a-guide-for-thinking-humans-by-melanie-mitchell-c3edd3c834df
>> Summary: Why AI is Harder Than We Think, 2021.7.30, https://medium.com/incerto-technologies/summary-why-ai-is-harder-than-we-think-5c0f4ee5403f
(5) Melanie Mitchell: Seemingly ‘sentient’ AI needs a human in the loop, 2022, https://www.ft.com/content/304b6aa6-7ed7-4f18-8c55-f52ce1510565
(6) Hubert Dreyfus’s views on artificial intelligence, https://en.wikipedia.org/wiki/Hubert_Dreyfus%27s_views_on_artificial_intelligence
>> Hubert Dreyfus, https://en.wikipedia.org/wiki/Hubert_Dreyfus
(7) What Computers Can’t Do, Hubert Dreyfus, 1972, https://mitpress.mit.edu/9780262540674/what-computers-cant-do/
(8) Moravec’s paradox, 2025.6.6, https://en.wikipedia.org/wiki/Moravec%27s_paradox
(9) Cognitive Fallibility in Human Intelligence (and in AI), 2025.6.12, https://www.psychologytoday.com/us/blog/keeping-those-words-in-mind/202506/cognitive-fallacies-in-human-intelligence-and-those-in-ai
>> What is special about human cognition that machines, 2012.1.26, https://www.reddit.com/r/philosophy/comments/oxmo5/what_is_special_about_human_cognition_that/
>> Intelligence is whatever machines cannot (yet) do, 2024.4.13, https://statmodeling.stat.columbia.edu/2024/04/13/intelligence-is-whatever-machines-cannot-yet-do
>> Can Machines Learn Like Humans?, 2023.9.13, https://www.youtube.com/watch?v=dCodVXdqHEQ
>> Can Computers Become Conscious and Overcome Humans? https://pmc.ncbi.nlm.nih.gov/articles/PMC7805878
>> Human- versus Artificial Intelligence, https://www.frontiersin.org/journals/artificial-intelligence/articles/10.3389/frai.2021.622364/full