핫이슈정치경제문화예술

OpenAI, 공동 창립자이자 CEO인 샘 알트만을 이사회에 거짓말을 했다는 혐의로 해고

카페블루 2023. 11. 18. 22:29
728x90
반응형

"‘어디까지가 한계인가?’ ChatGPT의 아버지가 AI가 인류를 구할지, 아니면 파괴할지에 대해 말하다."

Sam Altman은 인공지능의 가장 큰 지지자 중 한 명이지만, 동시에 그것을 규제하기 위한 요구를 주도하고 있다.

그는 매우 불확실한 미래에 대한 자신의 비전을 개진한다.

 

"AI 연구 실험실 OpenAI의 최고경영자인 샘 알트만을 만났을 때, 그는 세계 투어 중이었다.

그와 그의 경쟁자들이 구축하고 있는 바로 그 AI 시스템들이 인류의 미래에 존재적 위험을 초래할 수 있다고 설교하고 있으며, 정부들이 지금 협력하여 오는 10년 동안 책임 있는 개발을 보장하는 안내 철로를 확립할 것을 촉구한다.

 

이후 며칠 동안, 그와 수백 명의 기술 리더들, 과학자들 및 'AI의 대부'인 Geoffrey Hinton과 Yoshua Bengio, 그리고 Google의 DeepMind CEO인 Demis Hassabis는 "AI로 인한 멸종 위험을 완화하는 것은 팬데믹과 핵전쟁과 같은 다른 사회적 규모의 위험과 함께 글로벌 우선순위가 되어야 한다"는 성명을 발표했다.

 

이는 세계 지도자들에게 그들이 말하는 'AI 위험'이 국제적인 노력이 필요하다는 것을 진지하게 받아들이도록 설득하기 위한 전방위적 노력이다.

알트만(38세)는 결국 ChatGPT의 아버지이며, '인공 일반 지능'(AGI)을 만들기 위한 주도권을 잡고 있는데, 이는 인간이 수행할 수 있는 모든 작업을 다룰 수 있는 AI 시스템이다.

'AI'가 타마고치보다 조금 더 복잡한 것을 설명하는 데 사용되는 반면, AGI는 진짜 것이다:

'그녀', '스타트렉', '터미네이터', '2001 스페이스 오디세이', '배틀스타 갤럭티카' 등의 이야기에 나오는 인간 수준의 지능이다."

 

"세계 투어 중에, 그의 입장을 더 복잡하게 만드는 것은, 알트만이 통제되지 않은 AI 개발의 위험에 대해서만 설교하는 것이 아니다. 그는 '초지능' 개발의 이점 - 11로 조정된 AGI, 인류가 해결하지 못한 문제를 해결할 수 있는 능력 - 이 너무 크기 때문에, 모든 것의 파괴를 감수하고 그것을 시도해야 한다고 주장한다.

 

몇 주간의 힘든 일정이다.

내가 그를 만난 날, 그는 전날 밤 Emmanuel Macron과 만난 후 파리에서 일어났다.

유로스타로 런던으로 가고 옥스퍼드로 빠른 이동 후, 그는 비즈니스 중심의 학생 사회인 옥스퍼드 길드에서 강연을 한다. 그 후 몇 번의 더 회의를 가진 후, 리시 수낙과 함께 10번가에서 대화를 나눈다.

그 다음 그는 바르샤바행 비행기에 탑승하여 다음날 뮌헨으로 간다.

그의 PR 팀은 들어오고 나가고 있지만, 알트만은 5주간의 일정에 참여한다.

 

“나는 샌프란시스코와 베이 지역을 사랑한다,” 그는 옥스퍼드 행사에서 무대에서 말한다.

“하지만 그곳은 이상한 곳이고, 꽤 메아리 치는 곳이다.

우리는 이 여행을 다른 장소의 리더들과 함께, 이 시스템들의 한계가 어떠해야 하는지, 혜택은 어떻게 공유되어야 하는지 결정하기 위해 시작했다.

그리고 대부분의 세계와 샌프란시스코 사이에는 매우 다른 관점이 있다.”

 

그의 팀의 낙담에도 불구하고, 가능한 많은 관점을 듣는 것이 하루 계획보다 우선이 분명하다.

UCL에서의 행사 후, 그는 청중 속으로 내려가서 Time과 FT에 헤드라인이 되는 캐주얼한 대화를 이끈다.

나와 대화를 시작하려고 막 앉으려는데, 밖으로 나가서 “OpenAI에 AGI 자살 경주를 중단하라”고 쓰여진 표지판을 들고 있는 소규모 시위대와 이야기를 나눈다.

 

“AGI 구축을 중단하고 AI 시스템이 안전할 수 있도록 하는 데 집중해야 합니다,”라고 옥스퍼드 대학교 학생인 기디온 퓨터먼이라는 한 시위자가 말했다.

“우리, 그리고 당신도, AGI 시스템이 상당히 위험할 수 있다고 생각한다면, 왜 우리가 위험을 감수해야 하는지 이해가 되지 않습니다.”

 

스탠퍼드 대학교 3학년 때 중퇴하고 Loopt라는 소셜 네트워크를 창업한 전형적인 중퇴 창업자인 마크 주커버그 스타일의 알트만은 중간 지점을 찾으려고 노력하며 완전한 정치가 모드로 보인다.

알트만은 “AGI로 향하는 경주는 나쁜 것이고, 안전 진보를 하지 않는 것도 나쁜 것이다,”라고 말한다.

하지만, 그는 시위자에게 “안전은 ‘능력 진보’와 함께 얻을 수 있다”고 말한다 - 더 강력한 AI 시스템을 구축하여 그들을 실험하고 그 작동 방식을 이해하는 것이다.

 

알트만은 퓨터먼을 설득하지 못하지만, 우리가 아래로 내려갈 때, 그는 대립에 대해 태평하다.

“이런 대화를 나누는 것이 좋다,”라고 그는 말한다.

“이 여행에서 많이 이야기한 것 중 하나는 초지능에 대한 글로벌 규제 프레임워크가 어떻게 생겼는지입니다.”

우리가 만나기 전날, 알트만과 그의 동료들은 그 규제에 대한 그들의 비전을 개요하는 노트를 발표했다:

연구소 간 협조, 안전 기준 부과, 시스템 훈련에 투입되는 컴퓨팅 파워 추적, 그리고 결국 특정 접근 방식을 전면적으로 제한하는 국제 원자력 에너지 기구 모델의 국제 기구.

 

그는 반응에 놀랐다. “더 많이 알고 싶어 하는 관심이 엄청 많다; 나도 예상하지 못했던 것, 매우 고위급 정치인들과 규제자들에게서, 그것이 어떻게 생겼을지에 대해. 나는 우리가 단기적인 것들에 대해서도 많이 이야기할 것이라고 확신한다.”

 

그러나 단기와 장기 사이의 그 구분은 투어에서 알트만에게 비판의 여지가 없게 만들었다.

결국 OpenAI에게는 회사의 제품이 이미 일으킬 수 있는 잠재적인 해를 다루는 정부의 주의를 존재적 위험에 집중시킴으로써 분산시키는 것이 이익이다.

회사는 이미 이탈리아와 ChatGPT의 데이터 보호 문제로 충돌했으며, 알트만은 워싱턴 DC를 방문하여 미국 상원의원들로부터 몇 시간 동안 오해로부터 저작권 침해에 이르기까지 모든 것에 대해 호되게 꾸중을 듣고 여행을 시작했다.

 

“웃기다,”라고 알트만은 말한다, “같은 사람들이 우리가 단기적인 문제에 신경 쓰지 않는다고 비난하고, 또한 규제 포획을 시도한다고 비난한다” – 과중한 규제가 도입되면 OpenAI와 소수의 시장 리더들만이 준수할 자원을 갖게 될 것이라는 아이디어. “나는 모든 것이 중요하다고 생각한다. 다른 시간 척도가 있지만, 우리는 이러한 각각의 도전을 해결해야 한다.”

 

그는 몇 가지 우려를 나열한다:

“매우 심각한 하나가 오고 있다고 생각한다, 나는, 정교한 오보에 대해; 그 다음에는 사이버보안에 대해 조금.

이것들은 매우 중요하지만, 우리의 특정한 임무는 AGI에 관한 것이다.

그래서 나는 우리가 그것에 대해 더 많이 이야기하는 것이 매우 합리적이라고 생각한다, 비록 우리가 다른 것들도 작업한다 하더라도.”

나는 회사의 동기가 이윤에 의해 주도될 수 있다고 제안할 때 그는 약간 신경질적으로 반응한다.

 

“우리는 모든 것을 이길 필요가 없다. 우리는 이상한 회사다: 우리는 이 혁명을 세계로 밀어붙이고, 그것을 안전하고 엄청나게 유익하게 만드는 방법을 알아내고 싶다. 하지만 나는 이러한 주제에 대해 당신이 생각하는 방식과 같은 방식으로 생각하지 않는다.”

 

OpenAI는 실제로 이상하다.

이 기구는 2015년 Elon Musk, PayPal 공동 창립자 Peter Thiel, LinkedIn 공동 창립자 Reid Hoffman 등의 지원으로 10억 달러의 기금을 가지고 비영리 단체로 설립되었다.

알트만은 처음에 Musk와 함께 공동 의장으로 활동했으며, "재정적 수익을 창출할 필요성에 구애받지 않고 인류 전체에 이익이 되는 방식으로 디지털 지능을 발전시키는 것"이 목표였다.

하지만 2019년에 조직은 "캡티브 프로핏" 모델을 중심으로 자신을 재구성했다.

알트만은 CEO가 되었고, 조직은 초기 투자보다 100배 이상을 벌 수 없다는 조건으로 외부 투자를 받기 시작했다.

로봇 칵테일 제조기가 인상적인 인간에게 최신 작품을 제공하는 일러스트레이션.

ChatGPT와 함께한 나의 일주일: 그것이 나를 더 건강하고, 행복하고, 생산적인 사람으로 만들 수 있을까?

더 읽기 이유는 간단했다: AI 연구의 최전선에서 일하는 것이 처음에 생각했던 것보다 훨씬 비쌌다.

 

“우리가 AI 연구의 최전선에 머무르는 것은 물론, AGI를 구축하는 것 없이 컴퓨팅 투자를 대폭 증가시키지 않으면 불가능하다,”라고 당시 OpenAI 최고 과학자 Ilya Sutskever가 말했다.

이미 독립적으로 부유한 알트만은 – 그는 Loopt로 첫 번째 재산을, 스타트업 액셀러레이터 Y Combinator의 대통령으로 두 번째 재산을 만들었다 – 새 회사에서 어떠한 지분도 가지지 않았다.

AI가 세계를 재구성하게 되면, 그는 우리 중 나머지 사람들보다 더 많은 이익을 얻지 못할 것이다.

 

그것이 중요하다고 그는 말한다, 왜냐하면 알트만은 재구성이 대체로 긍정적으로 휘어지는 것에 확신하고 있지만, 누가 이길지에 대해서는 확신이 없기 때문이다. “나는 확실히 말하고 싶지 않다. 나는 그것이 모두에게 생활 수준을 높일 것이라고 확신한다, 그리고 솔직히, 선택이 모두에게 생활 수준을 높이지만 불평등을 유지하는 것이라면, 나는 여전히 그것을 선택할 것이다. 그리고 나는 [안전한 AGI]가 만들어지면 그것이 할 수 있다는 데 우리 모두 동의할 수 있다고 생각한다.

하지만 그것은 매우 평등한 힘이 될 수 있다. 몇몇 기술은 그렇고 몇몇은 아니며, 다른 방식으로 둘 다 할 수도 있다.

 

"하지만 나는 여러분이 많은 방법을 볼 수 있다고 생각합니다. 만약 지구상의 모든 사람이 훨씬 나은 교육, 훨씬 나은 의료 서비스를 받고, 현재 인지 노동의 가격 때문에 불가능한 삶을 살게 된다면 – 그것은 강력할 수 있는 방식으로 평등한 힘이 될 수 있습니다."

 

그것에 대해서도, 그는 베팅을 조심스럽게 하고 있다.

알트만은 또한 다양한 형태의 기본소득에 대한 목소리 높은 지지자가 되었으며, 단기적 혼란이 심각할 수 있는 시기에 AI 진보의 이익을 공평하게 나누는 방법을 알아내는 것이 점점 더 중요하다고 주장한다.

그의 부수적인 프로젝트인 Worldcoin, 암호화폐 기반의 보편적 기본소득을 구축하기 위해 지구상의 모든 사람의 홍채를 스캔하려는 암호화폐 스타트업에 집중하고 있다.

 

하지만 그것이 그의 유일한 접근 방식은 아니다. “어쩌면 미래에서 가장 중요한 부의 구성요소는 이 시스템들에 대한 접근일 수 있는데, 이 경우 그 자체를 재분배하는 것에 대해 생각할 수 있습니다.”

결국, 모든 것은 초지능이 우리에게 도움이 되는 세계를 만드는 목표로 돌아갑니다.

한때, 알트만은 과학 소설에서 우리가 알아볼 수 있는 미래에 대한 비전을 가졌다.

 

“나는 초지능으로 향하는 방법에 대해 생각하던 방식이 이것이었다.

우리는 이 하나의 매우 능력 있는 시스템을 만들 것이다.

그것과 함께 오는 여러 안전 도전들이 있었고, 그것은 상당히 불안정한 세계가 될 것이다.”

 

만약 OpenAI가 최신 버전의 ChatGPT를 켜고 인류 전체보다 똑똑한 것을 발견한다면, 시스템을 장악할 수 있는 사람이 세계를 장악하고 시스템 자체가 아니라면 누구에 의해서도 쉽게 축출되지 않을 비관적인 결과들을 그리기 시작하는 것이 쉽다.

 

하지만 이제 알트만은 더 안정적인 경로가 제시되고 있다고 본다:

“우리는 이제 이러한 도구들을 만들어 나가는 경로를 보고 있다. 그리고, 세계에서 수십억, 수조 개의 복사본이 사용되고 있으며, 개개인이 훨씬 더 효과적이고, 훨씬 더 많은 것을 할 수 있는 데 도움을 준다. 한 사람이 낼 수 있는 출력량이 극적으로 증가할 수 있고, 초지능이 나타나는 곳은 우리가 가장 큰 단일 신경망의 능력뿐만 아니라, 우리가 발견하고 있는 모든 새로운 과학, 우리가 창조하고 있는 모든 새로운 것들에 있다.

 

“멈출 수 없는 것은 아니다,”라고 그는 말한다.

세계 각국의 정부가 인간 복제나 생물무기 연구와 같은 다른 분야에서 그랬던 것처럼 AI 개발을 제한하기로 결정한다면, 그들은 할 수도 있을 것이다.

하지만 그것은 모든 가능성을 포기하는 것이 될 것이다.

"나는 이것이 우리가 경험한 사람들의 삶의 질에서 가장 엄청난 진보가 될 것이라고 생각하고, 그것이 어떻게든 논의에서 간과되어 버리는 것 같다.'라고 생각한다."

728x90
반응형