AI는 어떻게 깊이 학습하나
1화

AI는 어떻게 깊이 학습하나

2024 노벨 물리학상은 ‘딥 러닝’을 선택했다.

‘AI won’t save us’ 시리즈를 시작합니다. 매주 금요일 오후 5시에 발행합니다. 우리는 지금 반세기마다 다가오는 완전히 새로운 변화를 목격하고 있습니다. 디지털 혁명보다 더 크고 더 강력한 혁명이 오고 있습니다. 바로 AI입니다. 디지털 대량 생산은 물질 대량 생산처럼 인간의 삶을 근본적으로 변화시킬 것입니다. ‘AI won’t save us’ 시리즈는 AI가 가져올 경제, 사회, 문화 변화의 징후를 포착합니다. 이번 에피소드에서는 2024년 노벨 물리학상이 수여된 ‘딥러닝’에 관해 살펴봅니다.
 
2024년 노벨 물리학상 수상자 제프리 힌튼은 새벽 2시경 캘리포니아의 한 호텔 방에서 스톡홀름에서 걸려온 전화를 받았다. 스웨덴 억양이 여러 번 섞여 있어 노벨 물리학상 수상이 진짜임을 확신할 수 있었다고 한다. 출처: Nobel Prize

변화와 징후


변화: 2024년 노벨 물리학상, 노벨 화학상 모두 AI 연구의 거장들에게 수여됐다.

징후: 노벨상은 현재의 세상을 만든 업적에 주어진다. AI 연구는 당분간 이 세계를 움직이는 주요한 기반이 될 것이다.

기계의 학습 비법


사람의 학습은 당연하다. 기계의 학습은 혁신이다. 2024년 노벨 물리학상은 기계학습, 즉 머신러닝(ML, Machine Learning)의 현대적 틀을 만들 두 사람에게 돌아갔다. 존 홉필드 미국 프린스턴대 교수와 제프리 힌턴 캐나다 토론토대 교수다. 이들이 무엇을 해낸 것인지를 이해하려면 기계학습이 무엇인지, 딥러닝이 무엇인지 이해할 필요가 있다. 우리 사회를 움직이는 변화의 실체를 이해하는 일이기도 하다.

ML에서 M이 무엇인지는 우리는 이미 이해하고 있다. 사람이 만든 장치로, 사람이 정한 규칙에 따라 작동하면 기계(Machine)다. 일반적으로 기계는 정해진 작업을 한다. 그런데 기계가 학습(Learning)을 하면 상황이 달라진다. 어린아이에게 이유식을 떠먹여 주다가 식사 방법을 ‘학습’하게 되면 알아서 수저를 들어 밥을 떠먹을 수 있게 되는 것처럼, 기계도 특정 분야를 학습하면 알아서 작동하게 된다. 예를 들면 스팸 메일을 골라내는 것 같은 일 말이다. 알아서 뭔가 하려면 판단해야 한다. 스스로 0인지 1인지 판독하여 분류해야 하는 것이다. 기계학습이 이를 가능케 한다.

기계도 학습 방법은 다양하다. 크게 보면 다섯 가지 정도로 나뉘는데, 그 중 주로 비교되는 것이 기호 주의와 연결 주의다. 기호 주의는 연역적인 논리 구조를 완성하는 데에 중점을 둔다. 수학 문제 풀이 과정에 빈칸이 듬성듬성 있을 때 그 빈 곳을 채우면 문제에서 정답까지 하나의 논리 체계가 완성된다. 다음엔 스스로 비슷한 문제를 풀 수 있다. 기호 주의 알고리즘은 데이터를 학습한 뒤 나머지 빈칸을 채우는 방식으로 학습한다. 반면, 연결 주의는 완전히 다르다. 수많은 시행착오를 통해 학습한다. 인간의 뇌가 어떻게 학습하는지를 모방한 방식이다.

정답이 나올 때까지 무한반복


학습은 인간의 것이다. 그것을 기계가 모방한 것이 기계 학습이다. 그렇다면 인간의 학습 방식을 최대한 그대로 모방해야 하지 않을까. 근원부터 따지자면 뇌의 작동 원리 같은 것 말이다. 뇌의 신경세포는 뉴런이다. 뉴런의 연결이 시냅스다. 이 시냅스가 강화되며 학습이 이루어진다. 오류가 발생하면 각각 시냅스의 강화 정도를 조정하며 오류를 수정한다.

올해 노벨 물리학상을 받은 존 홉필드 교수는 이 신경망을 모방한 모형을 제시했다. 인공 신경망에는 뉴런 대신 노드(node)가 있다. 각 노드는 연결되어 있으며 학습을 통해 어떤 연결은 더 강해지고 어떤 것은 약해진다. 1982년 홉필드 교수가 제안한 ‘홉필드 네트워크’는 그전까지 존재하던 인공 신경망 모델과는 달리 노드 간의 연결을 통해 정보가 양방향으로 전달되는 모형이다. 인간의 뉴런과 훨씬 닮아있다.

제프리 힌튼 교수는 홉필드 네트워크를 좀 더 인간적으로 만들었다. 세계는 단 하나의 정답으로 설명되지 않는다. 90퍼센트의 정답도 있기 마련이다. 손 글씨로 쓴 글자처럼 말이다. 인쇄체의 글자와 정확히 일치하지는 않아도 대강 일치하면, 우리는 손 글씨를 알아본다. 힌튼 교수가 동료 연구자와 함께 홉필드 네트워크에 볼츠만 방정식을 적용해 만든 ‘볼츠만 머신’이 바로 이걸 해낸다. 익숙한 패턴을 찾아내 확률적으로 계산하고 결과를 출력한다.

AI 대부의 경고


볼츠만 머신을 여러 겹으로 쌓아 만든 것이 ‘딥 러닝’이다. 네트워크의 학습을 여러 층위로 하니 딥 러닝이 된다. 작동 방식은 크게 네 단계로 볼 수 있다.
  • 입력(Input): 데이터를 확보해 AI 모델에 집어넣는다.
  • 전처리(Pre-Processing): 학습을 위한 데이터로 정제하고 가공한다. 구체적으로는 데이터에 가중치와 편향을 부여해 조정한다. 그리고 네트워크 층위를 지나면서 함수를 통해 데이터가 걸러진다.
  • 학습(Train): 준비를 마친 데이터를 AI 모델에 입력된다. 모델은 이 데이터를 처리하고, 이 과정에서 패턴을 학습하게 된다.
  • 예측: (predict): 학습을 마친 AI 모델에 새로운 데이터를 입력하면 예측값을 내놓게 된다. AI 모델의, 머신러닝의 최종적인 목적이다. 냄비에 김치를 넣고 ‘끓이면’ 김치찌개가 된다는 것을 학습했으니, 된장을 넣고 끓이면 된장찌개를 예측할 수 있다.

그런데 여기서 ‘끓이는’ 과정을 도출하는 방법을 주목해 볼 필요가 있다. 김치를 어떻게 하면 찌개가 되는지, AI 모델은 모른다. 임의로 값을 넣으면, 그러니까 ‘볶는다’는 값을 넣으면 찌개가 되지 않는다. 김치 볶음이 된다. 김치 볶음과 김치찌개의 차이인 ‘오차’를 구하고 이를 역방향으로 전파한다. 오차를 전 단계의 네트워크로 돌려보내 다시 계산하고 수정을 반복하는 것이다. 어느 순간 오류가 최소화되면 김치찌개에 한없이 가까운 결과에 도달한다. 이 방법이 바로 역전파(Backpropaganda) 방법이다. 엄청난 컴퓨팅 파워가 필요하다.

힌튼 교수는 이 역전파 방식을 뒤집는 새로운 패러다임이 필요하다고 주장한다. 역전파 방식에서 벗어나지 않는 이상, 인공 신경망이 스스로 지능을 갖출 수 있는 단계에 도달할 수 없다는 것이다. 동시에 힌튼은 인공 지능의 미래에 관해 경고한다. 노벨상 수상이 확정된 이후 힌튼은 “우리는 인류보다 뛰어난 어떤 것을 경험해 본 적이 없다”며 AI가 인류의 통제를 벗어날 수 있다는 점을 고려해야 한다고 강조했다.

사유


인간의 지능을 모방해 만들어진 AI 기술은 다시 인간을 향한다. 2024년 노벨 화학상을 받은 구글 딥마인드의 알파폴드 프로젝트 얘기다. 화학상 수상자 데이비드 베이커 미국 워싱턴대 교수는 단백질 설계 모델을 만들었고, 공동 수상한 데미스 허사비스와 존 점퍼는 구글 딥마인드팀 소속으로 단백질 구조 예측 AI 모델인 알파폴드를 개발했다. 신약 개발에 엄청난 가속도가 붙는 계기다. 힌튼의 경고처럼 AI는 인간을 뛰어넘을지도 모른다. 진짜 문제는 그 능력을 누가 갖느냐다. 현재 알파폴드는 전 세계의 연구자에게 공개되어 있다. 하지만 다음 모델도 그럴지는 장담할 수 없다.
 
신아람 에디터
#AI #테크 #aiwontsaveus

2화 ‘This Week in AI’에서는 이번 주의 가장 중요한 AI 뉴스 3가지를 엄선해 맥락을 해설합니다.
다음 이야기가 궁금하신가요?
프라임 멤버가 되시고 모든 콘텐츠를 무제한 이용하세요.
프라임 가입하기
추천 콘텐츠
Close