[인공지능에 고삐 채울까 말까] 반대 | 혁신을 질식시킬 뿐이다

기존의 규제로도 충분 … 추가적인 규제는 엄청난 혁신 잠재력 약화시켜


AI 대상의 규제 신설과 관련된 지연과 비용의 부담 없이 연구할 수 있도록 해야 한다. / 사진:NG HAN GUAN-AP-NEWSIS

일각에선 중무장한 인공지능(AI) 로봇이 세계를 점령하고 인류를 노예로 만들거나 어쩌면 멸종시킬지 모른다고 두려워한다. IT 업계 억만장자 엘론 머스크와 저명한 물리학자 스티븐 호킹을 비롯한 사람들은 AI 기술을 규제해 그런 위험을 방지해야 한다고 말한다. 그러나 마이크로소프트(MS) 창업자 빌 게이츠와 페이스북 CEO 마크 저커버그의 의견은 다르다. 그런 걱정이 실현될 만큼 기술이 발전하려면 아직 멀었다고 말한다.

나는 로봇 의사결정, 무인기, 자율주행 차량에서 AI의 기능을 연구해오는 동안 그것이 우리에게 얼마나 유익할 수 있는지 목격했다. 내가 개발한 AI 소프트웨어는 로봇이 협력작업을 통해 여러 문제를 해결하도록 한다. 문제를 탐구하고 해결하기 위한 집단적인 노력의 일환이다. 과학자들은 공공안전을 위해 수립된 규칙·규제·법규를 적용 받는다. 더 많은 제약을 주면 AI 시스템을 이용한 혁신 잠재력이 약화될 수 있다.

AI는 현재 어떤 규제를 받나?

‘인공지능’이라는 용어는 인간형 로봇의 이미지를 연상시킬지 모르지만 사람들은 대부분 과거 AI를 겪어 봤다. 온라인 쇼핑 중 비슷한 제품을 찾아주고, 영화와 TV 프로그램을 추천하고, 웹사이트를 찾도록 돕는다. 학생의 작문을 평가하고, 개인 맞춤 학습지도를 제공하고, 공항 스캐너를 통과하는 물체를 인식하기도 한다.

어떤 경우에든 AI가 인간의 일을 쉽게 만들어준다. 일례로 내가 개발한 AI 소프트웨어를 이용해 과학실험의 일환으로 야외에서 식물이나 동물을 찾는 작업을 계획·집행할 수 있다. 그러나 AI가 사람을 대신해 이 같은 일을 수행하더라도 어디에서 무엇을 찾을지에 관해서는 인간의 결정과 목표에 따라 행동한다.

이뿐 아니라 다른 많은 분야에서 AI는 적절히 사용하기만 하면 피해보다 혜택을 더 많이 안겨줄 잠재력을 지닌다. 한편 현재로선 추가적인 규제가 필요 없다고 생각한다. 유해한 행동에 대한 민사·형사 책임을 묻는 법령들이 국가·주·시의 사법제도에 존재한다. 예컨대 무인기는 미국 연방항공국(FAA)의 규제를 따라야 한다. 한편 자율주행차 AI는 일반도로를 이용할 때 일반 교통법을 준수해야 한다.

로봇이 사람을 다치거나 죽게 할 경우에도 기존 법규가 적용된다. 사고로 인한 부상이거나 로봇의 프로그래머나 오퍼레이터에게 형사 책임이 없더라도 마찬가지다. 기술이 발전함에 따라 법률·규제 입안자 입장에서 AI 시스템의 행동에 대한 책임을 더 명확히 할 필요가 있을지 모르지만 새로운 규제는 엄청나게 큰 혜택을 가져올 능력의 발전을 차단 또는 둔화시킬 수 있다.

인공지능의 잠재적인 위험

완전히 인간의 통제를 벗어나 활동할 수 있는 최첨단 AI 시스템을 과학자들이 개발하는 데 걱정이 앞설 만도 하다. 일반적인 사고실험(thought experiment, 일정한 조건을 상정해 사유적으로 추구하는 실험)에서는 자율주행차가 막 차도로 뛰어든 아이를 치고 나갈지 아니면 가드레일 쪽으로 방향을 틀어 차의 탑승자뿐만 아니라 다른 차량의 탑승자까지 다치게 할지를 결정해야 하는 상황을 다룬다.

머스크 CEO와 호킹을 비롯한 사람들은 탁월한 능력을 지닌 AI 시스템이 자율주행차 운전뿐 아니라 여러 과업을 동시에 관장하면서 인간은 더 이상 필요 없다고 판단할 수 있다는 점을 우려한다. 인간의 지구관리 방식, 사람끼리의 갈등, 절도, 사기, 빈번한 전쟁을 보면서 이 세상에 사람이 없는 편이 낫다고 생각할 수도 있다.

공상과학 작가 아이작 아시모프는 이런 가능성에 대처하는 방안으로 로봇의 의사결정을 제한하는 세 가지 법을 제안했다. 첫째, 로봇은 인간을 해치거나 다른 로봇이 해치러 다가오도록 허용할 수 없다. 둘째, 인간을 해치려는 목적이 아닌 한 인간의 말에 복종해야 한다. 셋째 인간을 해치는 일이거나 명령 불복종이 아닌 한 자신을 보호해야 한다.

그러나 아시모프도 그 세 가지 법만으로는 충분하지 않다는 것을 알고 있었다. 거기에는 인간이 지닌 가치관의 복잡성이 반영되지 않았다. ‘해친다’는 의미가 단적인 예다. 로봇이 인구과잉과 관련된 고통으로부터 인간을 보호해야 하는가, 아니면 자신의 생식 문제를 스스로 결정하는 자유를 보호해야 하는가?

우리 인간은 인공이 아닌 우리 자신의 지능으로 이런 문제와 씨름해 왔다. 과학자들은 생식억제 등 인간의 자유를 제한해 인간의 행동, 인구증가, 환경피해를 통제해야 한다고 제안해 왔다. 대체로 사회는 목적이 타당하더라도 이런 방식은 사용하지 않는 편이 좋다고 판단해 왔다. 마찬가지로 AI 시스템이 할 수 있는 것과 할 수 없는 것을 규제하기보다는 부모가 자녀를 교육하듯이 로봇에 인간의 윤리와 가치관을 가르치는 편이 낫다고 본다.

인공지능의 혜택

사람들은 매일 AI의 혜택을 본다. 하지만 이는 시작에 불과하다. AI의 통제를 받는 로봇이 무장한 범죄자에 대응하는 경찰을 지원할 수 있다. 경찰은 부상당하지 않도록 예방에 초점을 맞춰야 한다. 그러나 로봇이 위험한 일을 대신 맡아 잠재적으로 최근 조지아공대의 무장한 대학생에 대한 경찰의 총격 같은 사건의 결과를 바꿔놓을 수 있다.

지능형 로봇은 다른 면에서도 인간을 도울 수 있다. 인간이라면 따분해서 실수를 범할 수 있는 센서 데이터 처리 같은 반복적인 작업을 대신 수행할 수 있다. 원자로의 방사능 오염제거나 인간이 접근할 수 없는 지역에서의 작업 같은 위험한 물질과 위험한 상황에 대한 인간의 노출을 줄일 수 있다. 전반적으로 AI 로봇은 인간이 원치 않는 일에 매달릴 필요 없이 무엇이 됐든 자신들이 행복이라고 정의하는 일을 추구할 시간을 더 많이 만들어 줄 수 있다.

이런 혜택의 대부분을 성취하려면 앞으로 훨씬 더 많은 연구와 개발이 필요하다. AI 개발에 더 많은 비용이 들게 만들거나 특정 용도를 제한하는 규제는 이런 노력을 지연시키거나 방해할 수 있다. 이는 신기술의 주요 견인차인 중소사업체와 개인에게 특히 해당되는 얘기다. 대기업만큼 규제를 따를 여건이 안 되기 때문이다. 실제로 AI 규제의 최대 수혜자는 규제 대응 경험이 많은 대기업일지 모른다. 스타트업은 규제 환경에서 경쟁하는 데 더 어려움을 겪게 마련이다.

혁신의 필요성

인류는 인터넷 초창기에 비슷한 문제들에 직면했다. 그러나 미국은 의도적으로 인터넷 규제를 줄여 새싹이 무럭무럭 자랄 수 있는 여건을 조성했다. 머스크 CEO의 온라인 결제서비스 페이팔과 그 밖의 다른 많은 사업체는 온라인 세계 건설에 일조했다. 그동안 절도·사기 방지법 같은 통상적인 사회생활 수준의 규제만 적용 받았다.

AI 시스템은 인간이 하는 거의 모든 업무 방식을 바꿔놓을 잠재력을 지닌다. 과학자·엔지니어·프로그래머·기업가에게는 그 기술을 개발하고 혜택을 구현할 시간이 필요하다. 그들이 일부 AI가 금지될지 모른다는 걱정 없이, 그리고 AI 대상의 새 규제와 관련된 지연과 비용의 부담 없이 연구할 수 있도록 해야 한다.

– 제레미 스트럽

※ [필자는 노스다코타주립대학 컴퓨터학과 조교수다.]