‘챗GPT 아버지’ 샘 올트먼 해고, 왜 중요할까?

발행 종료 안내
‘이효석의 주식으로 보는 세상’이 오늘(23.11.22)부로 발행을 종료합니다. 해당 코너에 보내주신 성원 잊지 않고, 앞으로 더 나은 콘텐츠를 선보일 수 있도록 최선을 다하겠습니다. 감사합니다.

‘챗GPT 아버지’ 샘 올트먼 해고, 왜 중요할까?
이효석의 주식으로 보는 세상

OpenAI 전 CEO인 샘 올트먼이 자신의 X(구 트위터) 계정에 올린 사진/X 캡처

업라이즈 애널리스트이며, 유튜브 이효석아카데미를 운영합니다.

샘 올트먼 해고 사태, 전 세계가 주목 : 지난 18일(현지 시각), ‘ 챗GPT’ 개발사 Open AI의 CEO, 샘 올트먼이 갑자기 이사회로부터 해고 통보를 받았습니다. 그는 불과 며칠 전만 해도 개발자 행사에서 챗GPT의 다음 버전을 발표하고, 누구나 GPT를 만들어 팔 수 있는 장터(GPT store)를 만들어 주겠단 구상을 공개했습니다. 사업적으로 전혀 문제가 없었는데요. 갑작스러운 해고 소식이 전해지자 전 세계가 주목하고 있습니다.

게다가 그 이후, Open AI 최대 투자자인 마이크로소프트(MS) CEO를 중심으로 진행되고 있는 일련의 사건은 쿠데타라는 단어를 떠올리게 할 정도로 긴박하게 진행되고 있는데요. 도대체 어떤 배경이 있었는지 짚어보고, 우리가 인공지능(AI)에 대해 생각해 봐야 할 것들은 무엇이 있는지 고민해 보도록 하겠습니다.

우선 팩트부터 정리해 보겠습니다. OpenAI 이사회는 “일관되게 정직하지 못했다”라며 샘 올트먼 CEO를 전격적으로 해고했습니다. Open AI에 130억달러나 투자했던 MS도 발표 1분 전에야 이 사실을 전해 들었을 정도로 갑작스러운 결정이었습니다. 화가 난 MS의 CEO 사티아 나델라는 샘 올트먼을 다시 복귀시키려고 했지만, 쉽지 않았습니다. 그러자 이틀 후, 샘 올트먼을 MS에서 AI를 연구하는 회사의 대표로 데려오겠다고 발표했습니다.

얼핏 보면, ‘한 회사의 대표가 잘렸다가 다시 다른 회사로 돌아갔네?’라고 생각할 수 있을 텐데요. 이 이슈 뒤에 어떤 내용들이 담겨 있는지 살펴보겠습니다.

독특한 거버넌스 가진 OpenAI: 이 사건을 이해하기 위해서는 OpenAI만의 특수성을 이해할 필요가 있습니다. 챗GPT를 세상에 선보인 AI 개발사라고 생각할 수 있습니다. 하지만 이 회사는 “AI를 개발하는 것이 아니라 AI의 폭주로부터 인간을 보호하겠다”는 목적을 가진 비영리단체로 시작했습니다.

그래서 이 회사는 매우 특이한 거버넌스를 가지고 있습니다. 예를 들면 OpenAI는 주주가 아니라 인류를 위해 존재한다든지, 이익이 나더라도 주주에게 돌려주는 것은 제한(cap)이 있다는 규정이 존재합니다. 주주에게 돌려주는 상한선 이상으로 버는 돈은 비영리단체에 돌려줘야 한다는 것입니다.

가장 중요한 키워드는 AGI: 독특한 거버넌스 중 우리가 기억해야 할 가장 중요한 키워드는 ‘AGI’입니다. AGI란 Artificial General Intelligence(범용 인공지능)의 약자로, 특정한 상황에서만 활용될 수 있는 AI가 아니라 범용적으로 활용되는 AI를 의미하는데요. OpenAI의 사내 규정에는 “회사가 AGI를 달성했을 때 상업적 응용을 통제하는 권한을 이사회가 보유한다”는 조항이 있습니다. 이사회가 AGI를 달성했다고 판단한 이후에는 영리적 목적으로 AI를 사용할 수 없다는 의미입니다.

AGI를 달성했는지 여부는 어떻게 판단할까요? OpenAI는 AGI를 “돈을 버는 행위와 관련해 대부분의 작업을 인간보다 잘하는 AI”라고 보고 있습니다. 쉽게 말해서 초지능적(Super Intelligent)인 AI라 할 수 있습니다.

그렇다면 여기서 가장 중요한 질문은 “AGI에 도달했느냐”일 것입니다. 얼마 전 발표된 챗GPT 4 plus는 300페이지 수준의 데이터를 한 번에 입력할 수 있는 엄청난 성능을 자랑했습니다. 다만, 아직 범용적 의미의 AGI에 도달했다고 보긴 어려울 텐데요. 일각에서는 OpenAI 내의 많은 개발자들이 세상에 아직 공개되지 않은 더 뛰어난 성능의 AI가 어떤 모습인지를 봤을 것이라고 주장합니다. 즉, AGI를 이미 봤기 때문에 이런 혼란이 생긴 것 아니냐는 의심을 해볼 수 있다는 거죠.

해고 원인은 AGI 관련 의견이 달랐기 때문: 하지만 실제 AGI에 도달했는지 여부는 밖에서 알 수 없으니, 또 다른 중요한 질문을 해보겠습니다. 만약 AGI에 도달해서 인간이 AI를 통제하기 어려운 수준이 됐다면, 인류는 AI를 어떻게 통제할 수 있을까요?

정답은 없지만, 이와 관련해서 해고당한 샘 올트먼 전 OpenAI CEO와 이 쿠데타(?)를 주도한 것으로 알려져 일리야 수츠케버 OpenAI 수석 과학자의 생각은 달랐던 것 같습니다. 샘 올트먼은 OpenAI를 이용해서 AGI에 더 빨리 도달하게 하고, 전 세계의 돈을 다 벌어서 본인이 통제하겠다는 쪽이었습니다. 반면 수츠케버는 컴퓨팅 능력의 20%는 반드시 초지능 AI 시스템을 제어·관리하는 초정렬(Superalignment)에 사용해야 한다고 주장하는 쪽이었습니다. 한쪽은 빨리 개발하자, 다른 쪽은 속도를 조절하자였다는 것이죠.

이번 사건이 처음 터졌을 때만 해도 MS의 사업에 불확실성이 커졌다는 분석이 많았습니다. 하지만, 샘 올트먼이 MS에 합류하기로 했고 OpenAI 직원 상당수가 이사회 구성원 전원 사임을 요구하며 이사회에서 물러나지 않으면 본인들도 MS로 옮기겠다고 압박하고 나섰습니다. 이를 감안하면, 결국 초기 분석과는 다르게 MS에 유리한 방향으로 진행되고 있는 것 같습니다.

인간이 AI를 통제할 수 있을까?: 이번 사태가 어떻게 마무리될지는 더 지켜봐야 할 전망입니다. 다만, 이번 사태를 계기로 우리는 “인간이 AI를 통제할 수 있을까”라는 중요한 질문을 던져봐야 합니다. 그리고 그 질문에 대한 답은 의외로 올해 개봉했던 영화 ‘오펜하이머’를 통해서 확인할 수 있습니다. 핵무기를 만들 수 있다는 것을 알게 된 이후, 인류는 어떻게 행동했나요? 핵무기의 위험성 때문에 개발을 멈춰야 한다는 주장은 “나치보다 미국이 빨리 개발해야만 한다”는 주장에 밀렸습니다. 그리고 전 세계의 천재 과학자들이 모여 정말 빠른 속도로 핵무기를 개발해 냈죠.

일론 머스크 테슬라 CEO의 X(구 트위터) 캡처

핵무기는 스스로 더 좋은 핵무기를 만들 수 없지만, AI는 더 좋은 AI를 만들 수 있기 때문에 훨씬 위험하다고 했던 유발하라리의 말이 떠오르네요. 인류가 AI를 어떻게 대하고, 다루어야 할지에 대한 고민이 묵직하게 다가옵니다. 겉으로는 AI의 안전성과 보안 등이 중요하다고 이야기하면서도 속으로는 내가 더 빨리 만들어야 된다고 이야기하는 것이 인간의 본능일테니 말입니다.