Home
Process
♠️

230612 알쓸스잡 - Why AI Will Save the World 요약 및 간단한 생각

Created
2023/06/12 04:40
Tags

요약

요지는 "AI로 무엇을 더 좋게 할지를 최대 속력으로 고민하고, 개발하고, 쓰게 해서 공진화 시켜야 한다. 그렇지 않고, 무엇을 더 막을지를 생각하면 오히려 통제의 목적으로 쓰는 중국 등의 세력에 밀려 위험해질 것이다" 입니다. 저는 사실 이것이 젠더 관점의 임팩트 분야, 그리고 헬스케어 분야에서 할 수 있는 것들이 굉장히 많아진다고 생각했는데요. 조금 더 생각을 정리 중이지만, 계속해서 이런 생각들은 옐로우독의 ai 서브섹터 투자 Thesis에 녹여 넣으면 되지 않을까 생각합니다.아티클이 사실 비판적으로 볼 부분도 많지만, (규제의 경우 나중에 가서는 당연히 필요합니다, 아무데서나 취사 못하게 하는 것처럼요. 그런데 불이 처음에 원시시대에 발명되었을 때 아무데서나 못쓰게 했다면 과연 어떻게 잘 쓰일 수 있을지 더 활발하게 실험해볼 수 있었을까요? 아무튼) 정 반 합 논리에 따르면 이런 의견이 더 강해져야 AI for good 에 대한 논의도 더 빠르게 사회적으로 이루어질 수 있다고는 개인적으로 생각합니다. 아래는 요약문입니다.
AI는 기본적으로 다양한 분야에서 사람이 소유하고 제어하는 유용한 기술임
인공지능에 대한 도덕적 공황이 현재 일어나고 있으며, 이를 문제삼아 많은 이들이 AI 규제와 제한을 요구하고 있음. 그러나 이러한 도덕적 공황은 종종 비합리적이며, 이를 이용하는 사람들이 자신의 이익을 추구하는 경우가 많음.
따라서 AI의 위험성과 이익을 모두 고려해야 하고, 그 이유는. AI가 우리가 관심 있는 모든 것을 개선할 수 있기 때문임. 설명하자면 사회과학의 핵심 결론은 인간의 지능이 매우 광범위한 삶의 결과를 개선한다는 것이고, AI는 이러한 인간의 지능을 획기적으로 강화하여 새로운 의약품 개발부터 기후 변화 해결 방법, 우주 탐사 기술 등 지능의 모든 결과물과 같은 매우 광범위한 삶의 결과를 훨씬 더 나은 방향으로 발전시킬 수 있는 기회를 제공할 수 있음
AI 리스크 #1: AI가 인류를 멸망시킬 것인가? 에 대한 반박
인공지능이 인류를 멸망시키기 위한 동기는 없으며, AI는 기계일 뿐임. 일부 사람들은 인공지능의 위험성을 지나치게 과장하며, 그들의 입장은 비과학적이고 극단적. 이들은 이미 물리적 폭력을 요구하고 있으며, 그들의 말과 행동이 일치하지 않는 것을 보면 실제로 AI를 구축하고 자금을 지원하는 것으로 추정됨. 또한 우리가 만든 기술이 인류를 멸망시킬 것이라는 것은 감정적인 두려움일 뿐, 더 발전시켜서 긍정적인 쪽으로 사용해야 함. 그들이 멸망론을 주장하는 이유는 첫째, AI의 업적을 더 넌지시 강조하고 싶거나, 둘째, 돈을 받고 있거나, 셋째, 이단 사이비 종교일 가능성이 높음
AI 리스크 #2: AI가 우리 사회를 망칠까? 대한 반박
인공지능이 인류를 파멸시킬 수는 없지만, 혐오 발언과 잘못된 정보가 인류에게 심각한 피해를 입힐 수 있다는 우려가 있으며, 이는 소셜 미디어에서 이미 발생하고 있음. 그러나 소셜 미디어에서도 하나의 규제와 제제를 시작함과 동시에 콘텐츠를 제한하는 프레임워크가 마련되면 , 사회에 위협이 되거나 자신의 개인적 취향에 반하는 모든 발언에 대해 더욱 높은 수준의 검열과 억압을 요구하게 될 것이기 때문에 미끄러운 경사면은 필연적. 이는 AI에도 동일하게 적용되어, 무엇을 할 수 없게 해야 하는지가 문제가 아니라 무엇을 할 수 있게 해야 하는지에 집중해야 함
AI 리스크 #3: AI가 우리의 일자리를 모두 빼앗아 갈까? 대한 반박
오히려 기술이 인간의 생산성을 높여 기존 상품과 서비스의 가격은 하락하고 임금은 상승하며, 이는 경제 성장과 일자리 증가로 이어지며, 새로운 일자리와 신산업 창출에 동기를 부여함. 따라서, AI가 경제 전반에 걸쳐 발전하고 확산된다면 우려와는 정반대로 기록적인 일자리와 임금 성장과 함께 역사상 가장 극적이고 지속적인 경제 호황을 일으킬 수 있음
AI 리스크 #4: AI가 심각한 불평등을 초래할 것인가? 대한 반박
AI가 일자리를 빼앗는 것이 부의 불평등을 초래할 것이라는 우려는 틀림. 신기술은 가능한 한 많은 고객에게 판매하는 것이 이익이며, AI는 전 세계적으로 확산되어 모든 사람이 이득을 얻게 된다. AI와 불평등의 실제 위험은 AI를 사용하지 못하도록 하는 것임.
AI 리스크 #5: AI로 인해 나쁜 사람들이 나쁜 짓을 하게 될까? 대한 반박
인공지능은 나쁜 사람들이 나쁜 일을 더 쉽게 할 수 있게 할 수 있지만, 범죄로 규정하는 법을 만들고, AI를 방어 도구로 사용하는 대대적인 노력을 기울이면 이를 예방할 수 있음. AI를 금지하는 것은 불가능하며, 그리고 AI가 할 수 있는 나쁜 일들은 이미 기존 법에서 금지하고 있는 행위들임. 대신 AI를 사용하여 우리 자신과 커뮤니티, 국가의 안전을 지키는 데 활용해야 함.
AI를 최대한의 힘과 속도로 추구하지 않을 때의 실제 위험
중국이 AI를 권위주의적 인구 통제의 메커니즘으로 간주하고 있으며, 글로벌 AI 기술 우위 경쟁에서 승리하려는 계획을 가지고 있다는 것이 실제 AI 리스크 중 하나. 미국과 서구는 열심히 AI를 개발하여 경제 생산성과 인간의 잠재력을 극대화하고 중국이 그러지 못하도록 해야 함.
무엇을 해야 할까요?
대형 AI 기업들이 AI를 개발할 수 있도록 허용하되, 정부 보호 카르텔을 구축하는 것은 허용하지 말아야, 스타트업 AI 기업들이 경쟁할 수 있어야 하며, 오픈소스 AI가 자유롭게 확산되어야 함. AI는 문제 해결을 위한 강력한 도구가 될 수 있으며, 민간 부문, 과학계, 정부가 협력하여 사용해야 한다. 또한, 우리는 중국의 AI 지배를 막기 위해 힘을 합쳐야 함.

원문

인공 지능의 시대가 도래했고, 사람들은 모두 겁에 질려 있습니다.
다행히도 저는 좋은 소식을 전하기 위해 이 자리에 왔습니다: 인공지능은 세상을 파괴하지 않을 것이며, 오히려 세상을 구할 수도 있습니다.
먼저 AI가 무엇인지 간단히 설명하겠습니다: 수학과 소프트웨어 코드를 적용하여 컴퓨터가 사람과 유사한 방식으로 지식을 이해하고, 합성하고, 생성하는 방법을 가르치는 것입니다. AI는 다른 컴퓨터 프로그램과 마찬가지로 실행되고, 입력을 받고, 처리하고, 출력을 생성합니다. AI의 결과물은 코딩부터 의학, 법률, 창작 예술에 이르기까지 다양한 분야에서 유용하게 사용됩니다. 다른 기술과 마찬가지로 사람이 소유하고 사람이 제어합니다.
AI가 아닌 것에 대한 간략한 설명: 영화에서 보는 것처럼 인류를 죽이거나 모든 것을 망칠 수 있는 킬러 소프트웨어와 로봇이 되살아날 수 있습니다.
AI가 될 수 있는 것에 대한 더 짧은 설명: 우리가 아끼는 모든 것을 더 좋게 만드는 방법.

AI가 우리가 관심 있는 모든 것을 개선할 수 있는 이유

인공지능에 대한 도덕적 공황이 현재 일어나고 있으며, 이는 AI 규제와 제한을 요구하는 동력으로 작용하고 있다. 그러나 이러한 도덕적 공황은 종종 비합리적이며, 이를 이용하는 사람들이 자신의 이익을 추구하는 경우가 많다. 따라서 AI의 위험성과 이익을 모두 고려해야 한다. AI가 우리가 관심 있는 모든 것을 개선할 수 있는 이유는 다음과 같다. 사회과학의 핵심 결론은 인간의 지능이 매우 광범위한 삶의 결과를 개선한다는 것이고, AI는 이러한 인간의 지능을 획기적으로 강화하여 새로운 의약품 개발부터 기후 변화 해결 방법, 우주 탐사 기술 등 지능의 모든 결과물과 같은 매우 광범위한 삶의 결과를 훨씬 더 나은 방향으로 발전시킬 수 있는 기회를 제공
수십 년 동안 수천 건의 연구를 통해 가장 검증된 사회과학의 핵심 결론은 인간의 지능이 매우 광범위한 삶의 결과를 개선한다는 것입니다. 학업 성취도, 업무 성과, 직업적 지위, 수입, 창의성, 신체 건강, 수명, 새로운 기술 습득, 복잡한 작업 관리, 리더십, 기업가적 성공, 갈등 해결, 독해력, 재정적 의사 결정, 타인의 관점 이해, 창의적 예술, 육아 성과, 삶의 만족도 등 거의 모든 활동 영역에서 똑똑한 사람들이 더 나은 결과를 얻습니다.
또한 인간의 지능은 과학, 기술, 수학, 물리학, 화학, 의학, 에너지, 건설, 교통, 커뮤니케이션, 예술, 음악, 문화, 철학, 윤리, 도덕 등 오늘날 우리가 살고 있는 세상을 만드는 데 수천 년 동안 사용되어 온 지렛대입니다. 이 모든 영역에 지능이 적용되지 않았다면 우리는 여전히 진흙 오두막에서 생계형 농사를 지으며 빈약하게 살아가고 있었을 것입니다. 대신에 우리는 지난 4,000년 동안 우리의 지능을 사용하여 생활 수준을 10,000배나 향상시켰습니다.
AI는 인간의 지능을 획기적으로 강화하여 새로운 의약품 개발부터 기후 변화 해결 방법, 우주 탐사 기술 등 지능의 모든 결과물을 훨씬 더 나은 방향으로 발전시킬 수 있는 기회를 제공합니다.
AI는 이미 다양한 종류의 컴퓨터 제어 시스템의 형태로 우리 주변에 존재하고 있으며, ChatGPT와 같은 AI 대규모 언어 모델을 통해 빠르게 확장되고 있으며, 우리가 허용한다면 여기서부터 그 속도가 매우 빨라질 것입니다.
새로운 AI 시대:
모든 어린이는 무한 인내심, 무한 동정심, 무한 지식, 무한 도움을 주는 AI 튜터를 갖게 될 것입니다. 이 AI 튜터는 모든 발달 단계의 어린이 곁에서 무한한 사랑의 기계 버전으로 잠재력을 극대화할 수 있도록 도와줄 것입니다.
모든 사람은 무한 인내심, 무한 동정심, 무한 지식, 무한 도움을 주는 AI 어시스턴트/코치/멘토/트레이너/고문/치료사를 갖게 될 것입니다. AI 비서는 인생의 모든 기회와 도전에 함께하며 모든 사람의 성과를 극대화할 것입니다.
모든 과학자는 AI 비서/협력자/파트너를 통해 과학 연구와 업적의 범위를 크게 확장할 수 있을 것입니다. 모든 예술가, 모든 엔지니어, 모든 사업가, 모든 의사, 모든 간병인도 자신의 세계에서 동일한 경험을 하게 될 것입니다. CEO, 공무원, 비영리 단체 회장, 운동 코치, 교사 등 모든 리더도 마찬가지입니다. 리더가 이끄는 사람들이 더 나은 결정을 내릴 때 발생하는 확대 효과는 엄청나기 때문에 이러한 인텔리전스 증강은 무엇보다도 중요할 수 있습니다. 경제 전반의 생산성 성장이 극적으로 가속화되어 경제 성장, 신산업 창출, 새로운 일자리 창출, 임금 상승을 주도하고 지구 전체에 물질적 번영의 새로운 시대가 열릴 것입니다.
AI가 자연의 법칙을 더욱 해독하고 인류의 이익을 위해 이를 활용하는 데 도움을 주면서 과학적 혁신과 새로운 기술 및 의약품이 획기적으로 확대될 것입니다. AI로 증강된 예술가, 음악가, 작가, 영화 제작자가 이전보다 훨씬 빠르고 대규모로 자신의 비전을 실현할 수 있게 되면서 창작 예술은 황금기에 접어들 것입니다.
저는 심지어 AI가 전쟁이 불가피한 상황에서 전쟁 사망률을 획기적으로 줄임으로써 전쟁을 개선할 수 있을 것이라고 생각합니다. 모든 전쟁은 극심한 압박과 극도로 제한된 정보로 극히 제한된 인간 지도자들이 끔찍한 결정을 내리는 것이 특징입니다. 이제 군 지휘관과 정치 지도자는 훨씬 더 나은 전략적, 전술적 결정을 내리는 데 도움을 주는 AI 조언자를 통해 위험, 오류, 불필요한 유혈 사태를 최소화할 수 있습니다.
요컨대, 오늘날 사람들이 자연 지능으로 하는 모든 일을 AI를 통해 훨씬 더 잘 해낼 수 있으며, 모든 질병을 치료하는 것부터 성간 여행에 이르기까지 AI 없이는 불가능했던 새로운 도전에 도전할 수 있게 될 것입니다.
그리고 이것은 단지 지능에 관한 것이 아닙니다! 아마도 AI의 가장 과소평가된 특성은 AI가 얼마나 인간화될 수 있는지일 것입니다. AI 예술은 기술적 능력이 부족한 사람들에게 예술적 아이디어를 자유롭게 창작하고 공유할 수 있는 기회를 제공합니다. 공감하는 AI 친구와 대화하면 역경에 대처하는 능력이 실제로 향상됩니다. 그리고 AI 의료 챗봇은 이미 인간보다 더 공감 능력이 뛰어납니다. 무한한 인내심과 공감 능력을 갖춘 AI는 세상을 더 냉혹하고 기계적으로 만드는 대신 세상을 더 따뜻하고 친절하게 만들 것입니다. 인간보다 인간과 상호작용을 더 잘할 수 있는 AI.
여기에는 많은 위험이 따릅니다. 기회는 무궁무진합니다. AI는 전기, 마이크로칩과 동등하거나 그 이상으로 우리 문명이 만들어낸 가장 중요하고도 최고의 발명품일 가능성이 높습니다.
AI의 개발과 확산은 우리가 두려워해야 할 위험과는 거리가 먼, 우리 자신과 자녀, 미래에 대한 도덕적 의무입니다.
우리는 AI를 통해 훨씬 더 나은 세상에서 살아야 하며, 이제 그럴 수 있습니다.
그렇다면 왜 패닉에 빠졌을까요?
이러한 긍정적인 견해와는 달리, 현재 AI에 대한 대중의 대화는 히스테리적인 공포와 편집증으로 가득 차 있습니다.
AI가 우리 모두를 죽이고, 사회를 망치고, 모든 일자리를 빼앗고, 심각한 불평등을 야기하고, 나쁜 사람들이 끔찍한 일을 저지를 수 있게 해준다는 주장도 들립니다.
유토피아에 가까운 미래에서 끔찍한 디스토피아에 이르는 잠재적 결과의 차이를 설명하는 것은 무엇일까요?
역사적으로 전기 조명, 자동차, 라디오, 인터넷 등 중요한 신기술이 등장할 때마다 도덕적 공황, 즉 새로운 기술이 세상이나 사회를 파괴할 것이라고 확신하는 사회적 전염병이 발생했습니다. 비관론자 아카이브의 훌륭한 사람들은 수십 년 동안 이러한 기술 중심의 도덕적 공황을 기록해 왔으며, 그 역사를 통해 이러한 패턴을 생생하게 확인할 수 있습니다. 현재의 공황은 인공지능에 대한 공황이 처음도 아닌 것으로 밝혀졌습니다.
많은 신기술이 나쁜 결과를 초래한 것은 사실이며, 종종 인류의 복지에 큰 도움이 되었던 기술이 나쁜 결과를 초래한 경우도 있습니다. 따라서 단순히 도덕적 공황이 존재한다고 해서 걱정할 것이 없다는 의미는 아닙니다.
도덕적 공황은 본질적으로 비합리적이기 때문에 정당한 우려를 히스테리 수준으로 부풀려서 아이러니하게도 실제로 심각한 우려에 직면하기 어렵게 만듭니다.
그리고 지금 우리는 AI에 대한 도덕적 공황에 빠져 있습니다.
이러한 도덕적 공황은 이미 다양한 주체들이 새로운 AI 제한, 규제, 법률 등 정책적 조치를 요구하는 동력으로 활용되고 있습니다. 도덕적 공황에 편승하여 AI의 위험성에 대해 극적으로 공개적으로 발언하며 도덕적 공황을 더욱 부추기고 있는 이러한 행위자들은 모두 자신을 공익을 위한 이타적인 옹호자로 내세우고 있습니다.
하지만 정말 그럴까요?
그리고 그들의 주장이 옳을까요, 틀릴까요?
인공지능의 세례교인과 밀매업자 경제학자들은 이런 종류의 개혁 운동에서 오랜 패턴을 관찰해 왔습니다. 이러한 운동의 주체는 1920년대 미국에서 금주령이 내려진 역사적 사례를 바탕으로 '침례교도'와 '밀주업자'라는 두 가지 범주로 나뉩니다:
'침례교도'는 사회적 재앙을 막기 위해 새로운 제한, 규제 및 법률이 필요하다는 것을 이성적으로는 아니더라도 감정적으로 깊이 느끼고 있는 진정한 사회 개혁가입니다. 알코올 금지의 경우, 알코올이 사회의 도덕적 구조를 파괴하고 있다고 생각하는 독실한 기독교인인 경우가 많았습니다. 인공지능 위험의 경우, 이 행위자들은 인공지능이 하나 또는 다른 실존적 위험을 초래한다고 믿는 사람들로, 거짓말 탐지기에 묶어두면 진심이라고 믿습니다.
'밀매업자'는 경쟁자로부터 자신을 격리하는 새로운 제한, 규제 및 법률의 부과를 통해 재정적 이익을 얻으려는 이기적인 기회주의자들입니다. 주류 금지의 경우, 이들은 합법적인 주류 판매가 금지되었을 때 미국인들에게 불법 주류를 판매하여 큰돈을 벌었던 말 그대로 밀주업자들이었습니다. AI 리스크의 경우, 이들은 새로운 스타트업과 오픈 소스 경쟁으로부터 보호받는 정부의 혜택을 받는 AI 공급업체 카르텔, 즉 소프트웨어 버전의 '너무 커서 실패할 수 없는' 은행을 형성하는 규제 장벽이 세워질 경우 더 많은 돈을 벌 수 있는 CEO들입니다.
냉소적인 사람들은 겉으로 드러난 침례교도들 중 일부는 대학, 싱크탱크, 활동가 그룹, 언론 매체로부터 돈을 받고 AI를 공격하는 부트 레거(Bootleggers)라고 주장합니다. AI 공포를 조장하기 위해 급여를 받거나 보조금을 받는다면 아마도 부트레거일 가능성이 높습니다.
부트레거의 문제는 그들이 승리한다는 것입니다. 침례교도들은 순진한 이데올로기주의자이고 밀수꾼들은 냉소적인 운영자이기 때문에 이와 같은 개혁 운동의 결과는 종종 밀수꾼들이 규제 장악, 경쟁으로부터의 격리, 카르텔 형성 등 그들이 원하는 것을 얻고 침례교도들은 사회 개선을 위한 그들의 추진력이 어디에서 그렇게 잘못되었는지 궁금해하게 됩니다.
우리는 2008년 글로벌 금융 위기 이후 은행 개혁이라는 놀라운 사례를 겪었습니다. 침례교도들은 이러한 위기가 다시는 일어나지 않도록 '너무 커서 실패하기 어려운' 은행을 해체하기 위해 새로운 법과 규제가 필요하다고 말했습니다. 그래서 의회는 2010년 도드-프랭크법을 통과시켰는데, 이 법은 침례교도들의 목표를 충족시키는 것으로 선전되었지만 실제로는 대형 은행인 부틀거(Bootleggers)의 사주를 받은 것이었습니다. 그 결과 2008년에 "너무 커서 실패할 수 없었던" 은행들이 지금은 훨씬 더 커졌습니다.
따라서 실제로 침례교가 진짜일지라도, 그리고 침례교가 옳을지라도, 침례교는교묘하고 악랄한 밀매업자들이 자신들의 이익을 위해 침례교를 위장으로 삼는 경우가 많습니다.
그리고 이것이 바로 지금 AI 규제 추진 과정에서 일어나고 있는 일입니다.
그러나 단순히 행위자를 식별하고 그들의 동기를 비난하는 것만으로는 충분하지 않습니다. 침례교도와 밀수업자 양측의 주장에 대한 장점을 모두 고려해야 합니다.

AI 위험 #1: AI가 인류를 멸망시킬 것인가?

인공지능이 인류를 멸망시키기 위한 동기는 없으며, AI는 기계일 뿐임. 일부 사람들은 인공지능의 위험성을 지나치게 과장하며, 그들의 입장은 비과학적이고 극단적. 이들은 이미 물리적 폭력을 요구하고 있으며, 그들의 말과 행동이 일치하지 않는 것을 보면 실제로 AI를 구축하고 자금을 지원하는 것으로 추정됨. 또한 우리가 만든 기술이 인류를 멸망시킬 것이라는 것은 감정적인 두려움일 뿐, 더 발전시켜서 긍정적인 쪽으로 사용해야 함. 그들이 멸망론을 주장하는 이유는 첫째, AI의 업적을 더 넌지시 강조하고 싶거나, 둘째, 돈을 받고 있거나, 셋째, 이단 사이비 종교일 가능성이 높음
첫 번째이자 최초의 AI 파멸 위험은 AI가 말 그대로 인류를 죽이기로 결정하는 것입니다.
우리가 만든 기술이 인류를 멸망시킬 것이라는 두려움은 우리 문화에 깊숙이 자리 잡고 있습니다. 그리스인들은 이러한 두려움을 프로메테우스 신화에서 표현했는데, 프로메테우스는 불의 파괴적인 힘, 더 일반적으로는 기술('테크네')을 인간에게 가져다주었고, 그 때문에 프로메테우스는 신들로부터 영원한 고문을 당하는 형벌을 선고받았습니다. 이후 메리 셸리는 소설 프랑켄슈타인, 즉 '현대판 프로메테우스'에서 영생을 위한 기술을 개발해 인간을 멸망시키려는 프로메테우스를 등장시켜 이 신화의 현대적 버전을 선보였습니다. 물론 제임스 카메론 감독의 영화 터미네이터에 등장하는 붉은 눈을 가진 킬러 로봇의 스틸 이미지가 없다면 인공지능에 대한 공포 신문 기사는 완성되지 않습니다.
이 신화의 진화적 목적은 신기술의 잠재적 위험을 진지하게 고려하도록 동기를 부여하기 위한 것으로 추정되는데, 불은 실제로 도시 전체를 불태우는 데 사용될 수 있습니다. 그러나 불이 춥고 적대적인 세상에서 우리를 따뜻하고 안전하게 지켜주는 현대 문명의 토대였던 것처럼, 이 신화는 대부분의? - 새로운 기술을 무시하고 실제로는 이성적인 분석보다는 파괴적인 감정에 불을 지핍니다. 전근대적인 사람들이 이렇게 겁에 질렸다고 해서 우리도 그렇게 해야 한다는 의미는 아닙니다.
저는 AI가 문자 그대로 인류를 죽이기로 결정할 것이라는 생각은 심각한 범주 오류라고 생각합니다. AI는 동물이나 인간처럼 수십억 년의 진화를 통해 적자생존을 위한 싸움에 참여하도록 준비된 생명체가 아닙니다. 컴퓨터는 사람이 만들고, 사람이 소유하고, 사람이 사용하고, 사람이 제어하는 수학-코드-컴퓨터입니다. 컴퓨터가 언젠가는 스스로의 마음을 개발하여 우리를 죽이려는 동기가 있다고 판단할 것이라는 생각은 미신적인 손짓에 불과합니다.
요컨대, AI는 원하지도 않고, 목표도 없으며, 살아있지 않기 때문에 사람을 죽이고 싶어하지 않습니다. 그리고 AI는 기계일 뿐이며 토스터기처럼 살아 움직이지는 않을 것입니다.
물론 킬러 AI를 믿는 사람들, 즉 침례교도들은 무서운 경고로 인해 갑자기 언론의 주목을 받고 있으며, 이들 중 일부는 수십 년 동안 이 주제를 연구해 왔다고 주장하며 이제 배운 것 때문에 정신이 나갈 정도로 무서워졌다고 말합니다. 이러한 진정한 신봉자 중 일부는 실제 기술 혁신가이기도 합니다. 이들은 AI 개발 금지부터 데이터센터에 대한 군사 공습, 핵전쟁에 이르기까지 AI에 대한 다양하고 극단적인 제한을 주장하고 있습니다. 이들은 AI로 인한 미래의 재앙적 결과를 배제할 수 없기 때문에 잠재적인 실존적 위험을 막기 위해 대규모의 물리적 폭력과 죽음을 감수하는 예방적 자세를 취해야 한다고 주장합니다.
제 답변은 그들의 입장이 비과학적이라는 것입니다. 테스트 가능한 가설은 무엇인가요? 무엇이 가설을 허위로 만들 수 있나요? 언제 위험 구역에 진입했는지 어떻게 알 수 있나요? 이러한 질문들은 "그런 일이 일어나지 않을 것이라는 것을 증명할 수 없다!"라는 대답을 제외하고는 대부분 답이 없습니다. 사실 침례교의 입장은 수학과 암호에 대한 음모론처럼 비과학적이고 극단적이며 이미 물리적 폭력을 요구하고 있기 때문에 저는 평소라면 하지 않았을 일을 하고 그들의 동기에 대해서도 의문을 제기할 것입니다.
구체적으로 세 가지가 진행되고 있다고 생각합니다:
첫째, 2차 세계대전을 종식시키고 3차 세계대전을 막는 데 기여한 핵무기 개발에 대한 로버트 오펜하이머의 유명한 손짓에 대해 존 폰 노이만이 "어떤 사람들은 죄의 공로를 주장하기 위해 죄책감을 고백한다"고 대답한 것을 상기하세요. 노골적으로 자랑스럽게 들리지 않으면서도 자신의 업무의 중요성에 대한 공로를 주장할 수 있는 가장 극적인 방법은 무엇일까요? 이것은 실제로 AI를 구축하고 자금을 지원하는 침례교도들의 말과 행동이 일치하지 않는 것을 설명합니다. 그들의 말이 아니라 행동을 보세요. (트루먼은 오펜하이머를 만난 후 "다시는 저 우는 애를 여기 들여보내지 마"라며 더 거칠게 말했습니다.)
둘째, 침례교도 중 일부는 실제로 밀수꾼입니다. "인공지능 안전 전문가", "인공지능 윤리학자", "인공지능 위험 연구자"라는 직업이 있습니다. 그들은 파멸자가 되기 위해 돈을 받고 있으며, 그들의 진술은 적절하게 처리되어야 합니다.
셋째, 캘리포니아는 EST에서 피플스 템플, 천국의 문에서 맨슨 가족에 이르기까지 수천 개의 컬트 단체로 유명합니다. 전부는 아니지만 이러한 컬트 중 상당수는 무해하며 소외된 사람들이 그 안에서 보금자리를 찾는 데 도움이 될 수도 있습니다. 하지만 일부는 매우 위험하며, 이단 사이비 종교는 궁극적으로 폭력과 죽음으로 이어지는 선을 넘나드는 것으로 악명이 높습니다.
그리고 베이 지역의 모든 사람들에게는 분명하지만 아마도 베이 지역 밖에서는 그렇지 않은 현실은 'AI 위험'이 컬트로 발전하여 갑자기 전 세계 언론의 관심과 대중의 신념의 대낮에 등장했다는 것입니다.

AI 리스크 #2: AI가 우리 사회를 망칠까?

인공지능이 인류를 파멸시킬 수는 없지만, 혐오 발언과 잘못된 정보가 인류에게 심각한 피해를 입힐 수 있다는 우려가 있으며, 이는 소셜 미디어에서 이미 발생하고 있다. 그러나 소셜 미디어에서도 하나의 규제와 제제를 시작함과 동시에 콘텐츠를 제한하는 프레임워크가 마련되면 , 사회에 위협이 되거나 자신의 개인적 취향에 반하는 모든 발언에 대해 더욱 높은 수준의 검열과 억압을 요구하게 될 것이기 때문에 미끄러운 경사면은 필연적이다. 이는 AI에도 동일하게 적용되어, 무엇을 할 수 없게 해야 하는지가 문제가 아니라 무엇을 할 수 있게 해야 하는지에 집중해야 한다.
널리 제기되는 두 번째 AI 위험은 AI가 말 그대로 사람을 죽이지는 않더라도 인류에게 심각한 피해를 입힐 정도로 '해로운' 결과물을 만들어냄으로써 우리 사회를 파멸시킬 것이라는 점입니다.
짧은 버전입니다: 살인 로봇이 우리를 죽이지 못한다면, 혐오 발언과 잘못된 정보가 우리를 죽일 것입니다.
이것은 위에서 설명한 'AI 위험' 운동에서 어느 정도 분화되어 어느 정도 이어받은 비교적 최근의 파멸 우려입니다. 실제로 AI 위험이라는 용어는 최근 AI가 문자 그대로 우리를 죽일 것이라고 걱정하는 사람들이 사용하는 용어인 "AI 안전"에서 사회적 "피해"를 걱정하는 사람들이 사용하는 용어인 "AI 정렬"로 바뀌었습니다. 원래 AI 안전론자들은 이러한 변화에 불만을 품고 있지만, 이 용어를 어떻게 다시 상자에 넣어야 할지 몰라 아직 널리 채택되지는 않았지만 적어도 명확하게 드러나는 실제 AI 위험 주제의 이름을 "AI 무해주의"로 바꾸자고 주장하고 있습니다.
AI 사회적 위험 주장의 본질에 대한 힌트는 "AI 정렬"이라는 용어 자체에 있습니다. 무엇과의 조율? 인간의 가치. 누구의 인간 가치? 아, 여기서부터 상황이 까다로워집니다.
공교롭게도 저는 소셜 미디어의 '신뢰와 안전' 전쟁이라는 비슷한 상황을 가장 앞자리에서 지켜본 적이 있습니다. 잘 알려진 바와 같이, 소셜 미디어 서비스는 수년 동안 정부와 활동가들로부터 다양한 콘텐츠를 금지, 제한, 검열 및 기타 방식으로 억압하라는 엄청난 압력을 받아왔습니다. 그리고 '혐오 발언'(그리고 그에 상응하는 수학적 개념인 '알고리즘 편향성')과 '잘못된 정보'에 대한 동일한 우려가 소셜 미디어의 맥락에서 'AI 정렬'이라는 새로운 영역으로 직접 이전되고 있습니다.
소셜 미디어 전쟁에서 제가 배운 가장 큰 교훈은 다음과 같습니다:
한편으로는 언론의 자유에 대한 절대주의적 입장은 존재하지 않는다는 것입니다. 첫째, 미국을 포함한 모든 국가에서 적어도 일부 콘텐츠를 불법으로 규정하고 있습니다. 둘째, 아동 포르노나 현실 폭력 선동과 같은 특정 종류의 콘텐츠는 거의 모든 사회에서 합법적이든 아니든 거의 보편적으로 금지하기로 합의되어 있습니다. 따라서 콘텐츠, 즉 발언을 촉진하거나 생성하는 모든 기술 플랫폼에는 몇 가지 제한 사항이 적용됩니다.
다른 한편으로, 미끄러운 경사면은 오류가 아니라 필연입니다. 혐오 발언, 특정 상처를 주는 단어, '교황이 죽었다'와 같이 명백히 허위인 잘못된 정보 등 끔찍한 콘텐츠까지 제한하는 프레임워크가 마련되면 놀라울 정도로 광범위한 정부 기관과 활동가 압력 단체, 비정부 단체가 나서서 사회에 위협이 되거나 자신의 개인적 취향에 반하는 모든 발언에 대해 더욱 높은 수준의 검열과 억압을 요구하게 될 것니다. 이러한 행위는 명백한 중범죄에 해당하는 행위까지 포함할 것입니다. 이러한 악순환은 엘리트 권력 구조 곳곳에 설치된 권위주의적 홀 모니터의 열광적인 지지를 바탕으로 영원히 지속될 수 있습니다. 이러한 현상은 소셜 미디어에서 10년 동안 계속되어 왔으며, 일부 예외를 제외하고는 계속해서 더 열렬해지고 있습니다.
이것이 바로 현재 'AI 정렬'을 둘러싸고 형성된 역학 관계입니다. 인공지능을 지지하는 사람들은 공지능이 생성한 말과 생각 중 사회에 유익한 것은 장려하고, 사회에 해로운 것은 금지하는 것이 현명하다고 주장합니다. 이에 반대하는 사람들은 사상 경찰이 숨이 멎을 정도로 오만하고 주제넘으며, 적어도 미국에서는 종종 노골적인 범죄를 저지르고 있으며, 실제로 조지 오웰의 1984년에 나오는 정부-기업-학계가 융합된 새로운 종류의 권위주의적 언론 독재가 되려고 한다고 주장합니다.
'신뢰와 안전'과 'AI 조정'을 지지하는 사람들이 기술 산업에서 일하고 기술 산업에 대해 글을 쓰는 많은 사람들을 포함하여 미국 해안 엘리트를 특징짓는 전 세계 인구의 매우 좁은 부분에 모여 있기 때문에 많은 독자들은 사회 파괴를 피하기 위해 AI 출력에 대한 극적인 제한이 필요하다고 주장할 준비가 된 자신을 발견하게 될 것입니다. 저는 지금 여러분을 설득하려 하지 않고, 이것이 요구의 본질이며 전 세계 대부분의 사람들이 여러분의 이념에 동의하지도 않고 여러분의 승리를 원하지도 않는다는 점을 말씀드리고자 합니다.
점점 더 강화되는 언어 규범을 통해 소셜 미디어와 AI 모두에 부과되고 있는 틈새 도덕에 동의하지 않는다면, AI가 무엇을 말하고 생성할 수 있는지에 대한 싸움이 소셜 미디어 검열에 대한 싸움보다 훨씬 더 중요할 것이라는 사실도 깨달아야 합니다. AI는 세상의 모든 것을 통제하는 계층이 될 가능성이 높습니다. AI가 어떻게 작동하도록 허용하는지가 그 어느 때보다 중요해질 것입니다. 여러분은 소규모의 고립된 당파적 사회 공학자들이 여러분을 보호한다는 오래된 주장을 숨기고 지금 이 순간에도 이를 결정하려 하고 있다는 사실을 알고 있어야 합니다.
요컨대, 생각의 경찰이 AI를 억압하도록 내버려 두지 마세요

AI 리스크 #3: AI가 우리의 일자리를 모두 빼앗아 갈까?

오히려 기술이 인간의 생산성을 높여 기존 상품과 서비스의 가격은 하락하고 임금은 상승하며, 이는 경제 성장과 일자리 증가로 이어지며, 새로운 일자리와 신산업 창출에 동기를 부여함. 따라서, AI가 경제 전반에 걸쳐 발전하고 확산된다면 우려와는 정반대로 기록적인 일자리와 임금 성장과 함께 역사상 가장 극적이고 지속적인 경제 호황을 일으킬 수 있음
기계화, 자동화, 컴퓨터화 또는 AI로 인한 다양한 일자리 상실에 대한 두려움은 기계 직기와 같은 기계가 처음 등장한 이래 수백 년 동안 반복되어 온 공포였습니다. 역사적으로 새로운 주요 기술이 등장할 때마다 더 많은 일자리가 더 높은 임금으로 창출되었지만, 이러한 공황이 발생할 때마다 "이번에는 다르다"는 주장, 즉 마침내 인간 노동에 타격을 줄 기술이 등장할 것이라는 주장이 뒤따랐습니다. 하지만 그런 일은 결코 일어나지 않습니다.
우리는 2000년대 아웃소싱 공황과 2010년대 자동화 공황이라는 두 차례의 기술 주도형 실업 공황 주기를 겪었습니다. 두 차례 모두 많은 화제와 전문가, 심지어 기술 업계 임원들까지 대량 실업이 임박했다고 경고했지만, 코로나19가 발병하기 직전인 2019년 말 전 세계는 역사상 그 어느 때보다 높은 임금을 받는 일자리가 많았습니다.
그럼에도 불구하고 이 잘못된 생각은 사라지지 않을 것입니다.
그리고 당연히 다시 돌아왔습니다.
이번에는 마침내 모든 일자리를 빼앗고 인간 노동자를 불필요하게 만들 진짜 AI 기술이 등장했습니다. 이번에는 분명히 역사가 반복되지 않을 것이며, AI는 급속한 경제, 일자리, 임금 성장이 아닌 대량 실업을 초래할 것입니다.
아니요, 그런 일은 일어나지 않을 것이며, 실제로 AI가 경제 전반에 걸쳐 발전하고 확산된다면 우려와는 정반대로 기록적인 일자리와 임금 성장과 함께 역사상 가장 극적이고 지속적인 경제 호황을 일으킬 수 있습니다. 그 이유는 다음과 같습니다.
자동화로 일자리가 사라질 것이라고 주장하는 사람들이 계속 범하는 핵심 실수를 '노동 덩어리 오류'라고 합니다. 이 오류는 주어진 시간에 경제에서 수행해야 할 노동의 양이 정해져 있고, 그 노동은 기계가 수행하거나 사람이 수행하며, 기계가 수행하면 사람이 할 일이 없다는 잘못된 생각입니다.
노동의 덩어리 오류는 순진한 직관에서 비롯된 것이지만, 여기서 순진한 직관은 잘못된 것입니다. 기술이 생산에 적용되면 생산성 향상, 즉 투입량 감소에 따른 산출량 증가를 얻을 수 있습니다. 그 결과 상품과 서비스의 가격이 낮아집니다. 재화와 서비스의 가격이 하락하면 우리는 더 적은 비용을 지불하게 되고, 이는 다른 물건을 구매할 수 있는 여분의 소비 여력이 생긴다는 것을 의미합니다. 이는 경제의 수요를 증가시켜 신제품과 신산업을 포함한 새로운 생산의 창출을 유도하고, 이는 이전 일자리에서 기계로 대체되었던 사람들을 위한 새로운 일자리를 창출합니다. 그 결과 물질적 번영, 더 많은 산업, 더 많은 제품, 더 많은 일자리를 가진 더 큰 경제가 탄생합니다.
하지만 좋은 소식은 여기서 끝나지 않습니다. 임금도 더 높아졌습니다. 이는 개별 근로자의 수준에서 시장이 근로자의 한계 생산성에 따라 보상을 책정하기 때문입니다. 기술이 도입된 비즈니스의 근로자는 기존 비즈니스의 근로자보다 생산성이 더 높을 것입니다. 고용주는 생산성이 높아진 근로자에게 더 많은 돈을 지불하거나, 다른 고용주가 순전히 자기 이익에 따라 더 많은 돈을 지불할 것입니다. 그 결과, 산업에 도입된 기술은 일반적으로 해당 산업의 일자리 수를 증가시킬 뿐만 아니라 임금도 상승시킵니다.
요약하자면, 기술은 사람들의 생산성을 높여줍니다. 이로 인해 기존 상품과 서비스의 가격은 하락하고 임금은 상승합니다. 이는 다시 경제 성장과 일자리 증가로 이어지며, 새로운 일자리와 신산업 창출에 동기를 부여합니다. 시장 경제가 정상적으로 작동하고 기술이 자유롭게 도입될 수 있다면 이러한 상승 사이클은 결코 끝나지 않을 것입니다. "인간의 욕구와 필요는 끝이 없다"는 밀턴 프리드먼의 말처럼, 인간은 항상 자신이 가진 것보다 더 많은 것을 원하기 때문입니다. 기술이 접목된 시장 경제는 모든 사람이 상상할 수 있는 모든 것을 제공하는 데 더 가까워지는 방법이지만, 결코 모든 것을 제공할 수는 없습니다. 그렇기 때문에 기술은 일자리를 파괴하지 않으며 앞으로도 결코 파괴하지 않을 것입니다.
이러한 아이디어를 접해보지 않은 사람들에게는 너무나도 놀라운 아이디어이기 때문에 머리를 감싸는 데 시간이 걸릴 수 있습니다. 하지만 제가 지어낸 이야기는 아니며, 사실 일반 경제학 교과서에서도 충분히 읽을 수 있는 내용입니다. 헨리 해즐리트의 <한 권으로 끝내는 경제학>에 나오는 '기계의 저주' 챕터와 조명 산업과의 불공정 경쟁으로 인해 태양을 꺼달라는 프레데릭 바스티아의 풍자적인 '촛불 제작자의 청원'을 우리 시대에 맞게 현대적으로 재해석한 작품을 추천합니다.
하지만 이번에는 다릅니다. 이번에는 AI를 통해 인간의 노동력을 모두 대체할 수 있는 기술이 등장했습니다.
하지만 위에서 설명한 원리를 이용해 말 그대로 현존하는 모든 인간 노동이 기계로 대체된다면 어떤 일이 벌어질지 생각해 보세요.
이는 경제 생산성 증가율이 역사적 전례를 훨씬 뛰어넘는 엄청난 수준으로 급상승한다는 것을 의미할 것입니다. 기존 상품과 서비스의 가격은 전반적으로 하락할 것입니다.

AI 위험 #4: AI가 심각한 불평등을 초래할 것인가?

AI가 일자리를 빼앗는 것이 부의 불평등을 초래할 것이라는 우려는 틀림. 신기술은 가능한 한 많은 고객에게 판매하는 것이 이익이며, AI는 전 세계적으로 확산되어 모든 사람이 이득을 얻게 된다. AI와 불평등의 실제 위험은 AI를 사용하지 못하도록 하는 것임. 그 이유는 각 기업 주체들이 그들의 이익 증대를 위해 기술의 무료 확산을 꾀하고, 결과적으로 개별 고객에게 권한이 부여되고 생성된 가치의 대부분을 가져가게 될 것이기 때문.
칼 마르크스의 말을 빌리자면, AI가 일자리를 빼앗는다는 우려는 곧바로 다음 AI 리스크로 이어집니다. 즉, AI가 나쁜 것이든 좋은 것이든 모든 일자리를 빼앗는다고 가정해 봅시다. 그러면 AI를 소유한 사람들이 모든 경제적 보상을 얻고 일반 사람들은 아무것도 얻지 못하기 때문에 엄청난 부의 불평등이 초래되지 않을까요?
공교롭게도 이것은 생산 수단의 소유자, 즉 부르주아지가 실제 노동을 하는 사람들, 즉 프롤레타리아트로부터 모든 사회적 부를 필연적으로 빼앗아간다는 마르크스주의의 핵심 주장이었습니다. 이것은 현실에서 아무리 반박해도 사라지지 않는 또 다른 오류입니다. 하지만 어쨌든 그 심장에 말뚝을 박아 봅시다.
이 이론의 결점은 기술의 소유자로서 기술을 혼자만 소유하는 것이 자신의 이익이 아니라 가능한 한 많은 고객에게 판매하는 것이 자신의 이익이라는 것입니다. 어떤 제품이든 세계에서 가장 큰 시장은 80억 명에 달하는 전 세계입니다. 따라서 실제로는 모든 신기술이, 심지어 고소득 대기업이나 부유한 소비자를 대상으로 판매하기 시작한 기술이라도, 가능한 한 가장 큰 대중 시장, 궁극적으로는 지구상의 모든 사람이 사용할 수 있을 때까지 빠르게 확산됩니다.
그 대표적인 예가 2006년 Elon Musk가 공개적으로 발표한 Tesla의 이른바 '비밀 계획'이었습니다:
1단계, [고가의] 스포츠카 제작
2단계, 그 돈으로 저렴한 자동차 만들기
3단계, 그 돈으로 더 저렴한 자동차 만들기
...물론 그 결과 그는 세계에서 가장 부유한 사람이 되었습니다.
마지막 단계가 핵심입니다. 엘론이 오늘날 부자들에게만 자동차를 팔았다면 더 큰 부자가 되었을까요? 아니요. 만약 그가 자기 자신을 위한 자동차만 만들었다면 그보다 더 부자가 되었을까요? 당연히 아니겠죠. 아니요, 그는 가능한 가장 큰 시장인 전 세계에 판매함으로써 자신의 이익을 극대화합니다.
요컨대, 자동차뿐만 아니라 전기, 라디오, 컴퓨터, 인터넷, 휴대폰, 검색 엔진 등 과거에 보았던 것처럼 모든 사람이 이득을 얻게 됩니다. 이러한 기술을 개발하는 업체들은 지구상의 모든 사람이 이러한 기술을 사용할 수 있을 때까지 가격을 낮추려는 의욕이 강합니다. 이것이 바로 AI에서 이미 일어나고 있는 일이며, 오늘날 Microsoft Bing과 Google Bard를 통해 저렴한 비용뿐 아니라 무료로도 최첨단 제너레이티브 AI를 사용할 수 있는 이유이며, 앞으로도 계속 일어날 일입니다. 이러한 공급업체가 어리석거나 관대해서가 아니라 정확히 말하면 시장 규모를 최대화하여 수익을 극대화하려는 욕심 때문입니다.
따라서 기술이 부의 중앙 집중화를 주도하는 것과는 정반대로, 궁극적으로는 지구상의 모든 사람을 포함한 기술의 개별 고객에게 권한이 부여되고 생성된 가치의 대부분을 가져가게 됩니다. 이전 기술과 마찬가지로, 자유 시장에서 작동해야 한다는 가정 하에 AI를 구축하는 기업들은 이를 실현하기 위해 치열하게 경쟁할 것입니다.
마르크스는 그때도 틀렸고 지금도 틀렸습니다.
우리 사회에서 불평등이 문제가 되지 않는다는 말은 아닙니다. 다만 불평등이 기술에 의해 주도되는 것이 아니라 그 반대, 즉 신기술에 가장 저항력이 강하고 AI와 같은 신기술의 도입을 막기 위해 정부가 가장 많이 개입하는 경제 부문, 특히 주택, 교육, 의료 부문에서 주도되고 있다는 것입니다. AI와 불평등의 실제 위험은 AI가 더 많은 불평등을 야기한다는 것이 아니라 불평등을 줄이기 위해 AI를 사용하지 못하도록 하는 것입니다.

AI 위험 #5: AI로 인해 나쁜 사람들이 나쁜 짓을 하게 될까?

인공지능은 나쁜 사람들이 나쁜 일을 더 쉽게 할 수 있게 할 수 있지만, 범죄로 규정하는 법을 만들고, AI를 방어 도구로 사용하는 대대적인 노력을 기울이면 이를 예방할 수 있음. AI를 금지하는 것은 불가능하며, 그리고 AI가 할 수 있는 나쁜 일들은 이미 기존 법에서 금지하고 있는 행위들임. 대신 AI를 사용하여 우리 자신과 커뮤니티, 국가의 안전을 지키는 데 활용해야 함.
지금까지 AI가 현실화되어 우리를 죽이지 않을 것이다, AI가 우리 사회를 망치지 않을 것이다, AI가 대량 실업을 초래하지 않을 것이다, AI가 불평등의 파멸적 증가를 초래하지 않을 것이다 등 가장 자주 제기되는 AI의 다섯 가지 위험 중 네 가지가 실제로 존재하지 않는 이유를 설명해 드렸습니다. 하지만 이제 제가 실제로 동의하는 다섯 번째에 대해 말씀드리겠습니다: AI는 나쁜 사람들이 나쁜 일을 더 쉽게 할 수 있게 할 것이다.
어떤 의미에서 이것은 모순입니다. 기술은 도구입니다. 불과 돌로 시작되는 도구는 음식을 요리하고 집을 짓는 등 좋은 일을 하는 데 사용될 수도 있고, 사람을 태우고 때리는 등 나쁜 일을 하는 데 사용될 수도 있습니다. 모든 기술은 선한 용도로 사용되거나 악한 용도로 사용될 수 있습니다. 충분히 공평합니다. 그리고 AI는 범죄자, 테러리스트, 적대적인 정부가 나쁜 일을 더 쉽게 할 수 있게 해줄 것입니다.
그래서 어떤 사람들은 이런 일이 일어나기 전에 지금 당장 AI를 금지하자고 제안하기도 합니다. 안타깝게도 AI는 플루토늄처럼 구하기 어려운 난해한 물리적 물질이 아닙니다. 오히려 그 반대이며, 수학과 코드라는 세상에서 가장 쉽게 구할 수 있는 물질입니다.
인공지능 고양이는 이미 개발이 완료된 상태입니다. 수천 개의 무료 온라인 강좌, 책, 논문, 동영상에서 AI를 구축하는 방법을 배울 수 있으며, 뛰어난 오픈 소스 구현이 하루가 다르게 확산되고 있습니다. AI는 공기와 같아서 어디에나 존재할 것입니다. 모든 컴퓨터를 감시하고 통제하는 세계 정부, 검은 헬리콥터를 탄 깡패들이 불량 GPU를 압수하는 등 전체주의적 억압이 얼마나 가혹한 수준일까요? - 우리가 보호해야 할 사회는 더 이상 존재하지 않을 것입니다.
대신, 나쁜 사람들이 AI로 나쁜 짓을 할 위험에 대처할 수 있는 매우 간단한 두 가지 방법이 있으며, 바로 이 두 가지에 집중해야 합니다.
첫째, 누구나 AI로 나쁜 짓을 할 수 있는 대부분의 나쁜 짓을 범죄로 규정하는 법이 있습니다. 펜타곤을 해킹한다고요? 그건 범죄입니다. 은행에서 돈을 훔치나요? 그것도 범죄입니다. 생물무기를 만들까요? 그것도 범죄입니다. 테러 행위를 저지르나요? 그것도 범죄입니다. 우리는 이러한 범죄를 예방할 수 있을 때 예방하고, 예방할 수 없을 때 기소하는 데 집중하면 됩니다. 새로운 법이 필요하지도 않습니다. 지금까지 제안된 AI의 악용 사례 중 이미 불법이 아닌 사례는 단 한 건도 없는 것으로 알고 있습니다. 그리고 새로운 악용 사례가 발견되면 해당 사용을 금지합니다. QED.
하지만 아까 제가 AI를 이용한 범죄가 발생하기 전에 예방하는 데 우선 집중해야 한다고 했는데, 그런 예방이 곧 AI를 금지하는 것을 의미하지 않을까요? 글쎄요, 그러한 행동을 방지하는 또 다른 방법이 있는데, 그것은 AI를 방어 도구로 사용하는 것입니다. 나쁜 목적을 가진 악당들이 AI를 위험하게 만드는 것과 같은 능력은 좋은 목적을 가진 선한 사람들, 특히 나쁜 일이 일어나지 않도록 예방하는 것이 임무인 선량한 사람들의 손에서 강력한 힘을 발휘할 수 있습니다.
예를 들어, AI가 가짜 사람과 가짜 동영상을 생성하는 것이 걱정된다면 암호화 서명을 통해 사람들이 자신과 실제 콘텐츠를 확인할 수 있는 새로운 시스템을 구축하는 것이 해답이 될 수 있습니다. 실제 콘텐츠와 가짜 콘텐츠의 디지털 생성 및 변경은 AI 이전부터 이미 존재해 왔으며, 워드 프로세서와 포토샵 또는 AI를 금지하는 것이 아니라 기술을 사용하여 실제로 문제를 해결할 수 있는 시스템을 구축하는 것이 해답입니다.
둘째, AI를 선하고 합법적이며 방어적인 목적으로 사용하기 위한 대대적인 노력을 기울여야 합니다. 사이버 방어, 생물학적 방어, 테러리스트 추적 등 우리 자신과 커뮤니티, 국가의 안전을 지키기 위해 하는 모든 일에 AI를 활용합시다.
물론 이미 정부 안팎에서 많은 똑똑한 사람들이 이 일을 하고 있지만, 현재 AI 금지라는 헛된 전망에 집착하고 있는 모든 노력과 두뇌를 나쁜 사람들이 나쁜 일을 저지르는 것을 막기 위해 AI를 사용하는 데 적용한다면 AI가 도입된 세상이 지금 우리가 사는 세상보다 훨씬 더 안전해질 것이라는 데는 의심의 여지가 없습니다.

AI를 최대한의 힘과 속도로 추구하지 않을 때의 실제 위험

중국이 AI를 권위주의적 인구 통제의 메커니즘으로 간주하고 있으며, 글로벌 AI 기술 우위 경쟁에서 승리하려는 계획을 가지고 있다는 것이 실제 AI 리스크 중 하나. 미국과 서구는 열심히 AI를 개발하여 경제 생산성과 인간의 잠재력을 극대화하고 중국이 그러지 못하도록 해야 함.
마지막이자 가장 무서운 실제 AI 리스크가 하나 있습니다:
AI는 상대적으로 자유로운 서구 사회에서만 개발되고 있는 것이 아니라 중화인민공화국 공산당에서도 개발되고 있다는 것입니다.
중국은 AI에 대해 우리와는 완전히 다른 비전을 가지고 있습니다. 중국은 AI를 권위주의적 인구 통제의 메커니즘으로 간주하고 있습니다. 중국은 이에 대해 비밀스러운 태도를 취하지 않고 매우 분명한 태도를 취하고 있으며, 이미 그들의 의제를 추진하고 있습니다. 또한 중국 정부는 AI 전략을 중국에 국한하지 않고 5G 네트워크에 전력을 공급하는 모든 곳, 일대일로 자금을 대출하는 모든 곳, 중앙집중식 명령 및 제어 AI의 프런트엔드 역할을 하는 Tiktok과 같은 친숙한 소비자 앱을 제공하는 모든 곳에서 전 세계로 확산시키려고 합니다.
AI의 가장 큰 위험은 중국이 글로벌 AI 우위를 점하고 미국과 서방은 그렇지 못한다는 것입니다.
저는 로널드 레이건 대통령이 소련과의 1차 냉전에서 승리하기 위해 사용한 것과 동일한 전략으로 이 문제를 해결할 수 있는 간단한 전략을 제안합니다.
"우리는 이기고, 그들은 지는 것이다."
킬러 AI, '유해한' AI, 일자리를 파괴하는 AI, 불평등을 야기하는 AI에 대한 근거 없는 공포에 휩싸여 뒷걸음질 치는 대신, 미국과 서구의 우리는 가능한 한 열심히 AI에 기대야 합니다.
우리는 글로벌 AI 기술 우위 경쟁에서 승리하고 중국이 그러지 못하도록 해야 합니다.
그 과정에서 우리는 경제 생산성과 인간의 잠재력을 극대화하기 위해 가능한 한 빠르고 열심히 AI를 우리 경제와 사회에 도입해야 합니다.
이것이 실제 AI 리스크를 상쇄하고 우리의 삶의 방식이 훨씬 더 어두운 중국의 비전에 의해 대체되지 않도록 하는 최선의 방법입니다.

무엇을 해야 할까요?

대형 AI 기업들이 AI를 개발할 수 있도록 허용하되, 정부 보호 카르텔을 구축하는 것은 허용하지 말아야 ,. 스타트업 AI 기업들이 경쟁할 수 있어야 하며, 오픈소스 AI가 자유롭게 확산되어야 함. AI는 문제 해결을 위한 강력한 도구가 될 수 있으며, 민간 부문, 과학계, 정부가 협력하여 사용해야 한다. 또한, 우리는 중국의 AI 지배를 막기 위해 힘을 합쳐야 함.
간단한 계획을 제안합니다:
대형 AI 기업들이 최대한 빠르고 공격적으로 AI를 개발할 수 있도록 허용하되, 규제의 틀에 갇히거나 AI 위험에 대한 잘못된 주장으로 인해 시장 경쟁으로부터 고립된 정부 보호 카르텔을 구축하는 것은 허용하지 말아야 합니다. 그래야 현대 자본주의의 보석과도 같은 이들 기업의 놀라운 역량으로 인한 기술적, 사회적 보상을 극대화할 수 있습니다.
스타트업 AI 기업들이 최대한 빠르고 공격적으로 AI를 구축할 수 있도록 허용해야 합니다. 정부가 부여한 대기업의 보호에 맞서서도 안 되고, 정부 지원을 받아서도 안 됩니다. 그저 경쟁할 수 있어야 합니다. 스타트업이 성공하더라도 그들이 시장에 존재함으로써 대기업은 지속적으로 최고가 되도록 동기를 부여받게 될 것이며, 우리 경제와 사회는 어느 쪽이든 승리할 수 있습니다.
오픈소스 AI가 자유롭게 확산되어 대기업과 스타트업 모두와 경쟁할 수 있도록 허용되어야 합니다. 오픈소스에 대한 규제 장벽이 전혀 없어야 합니다. 오픈소스가 기업을 능가하지 못하더라도, 오픈소스가 널리 보급되면 AI를 구축하고 사용하는 방법을 배워 미래의 기술 주역이 되고자 하는 전 세계 학생들에게 큰 도움이 될 것이며, 신분이나 돈의 많고 적음에 관계없이 누구나 AI의 혜택을 누릴 수 있게 될 것입니다. 나쁜 사람들이 AI로 나쁜 일을 저지를 위험을 상쇄하기 위해 정부는 민간 부문과 협력하여 잠재적 위험의 각 영역에 적극적으로 참여하여 사회의 방어 능력을 극대화하기 위해 AI를 사용해야 합니다. 이는 AI로 인한 위험뿐만 아니라 영양실조, 질병, 기후와 같은 보다 일반적인 문제에도 적용되어야 합니다. AI는 문제 해결을 위한 믿을 수 없을 정도로 강력한 도구가 될 수 있으며, 우리는 이를 받아들여야 합니다. 중국이 전 세계를 지배하는 위험을 막기 위해 우리는 민간 부문, 과학계, 정부가 힘을 합쳐 미국과 서구의 AI가 궁극적으로 중국 내부를 포함해 전 세계를 절대적으로 지배하도록 해야 합니다. 우리가 이기면 그들은 패배합니다. 이것이 바로 우리가 AI를 사용하여 세상을 구하는 방법입니다.
이제 구축할 때입니다.

전설과 영웅

두 가지 간단한 문장으로 마무리하겠습니다.
AI의 개발은 컴퓨터의 발명과 동시에 1940년대에 시작되었습니다. 오늘날 AI의 아키텍처인 신경망에 관한 최초의 과학 논문은 1943년에 발표되었습니다. 지난 80년 동안 전 세대의 AI 과학자들이 태어나고, 학교를 다니고, 일했으며, 많은 경우 지금 우리가 받고 있는 보상을 보지 못한 채 세상을 떠났습니다. 그들은 모두 전설입니다.
오늘날, 점점 더 많은 엔지니어 군단(이들 중 상당수는 젊고 조부모나 증조부모가 AI의 아이디어를 창출하는 데 관여했을 수 있음)이 이들을 무모한 악당으로 묘사하려는 공포 조장 및 파멸론의 벽에 맞서 AI를 현실화하기 위해 노력하고 있습니다. 저는 그들이 무모하거나 악당이라고 생각하지 않습니다. 그들은 모두 영웅입니다. 저와 저희 회사는 가능한 한 많은 이들을 지원하게 되어 매우 기쁘게 생각하며, 그들과 그들의 활동에 100% 함께할 것입니다.