인공지능 (Artificial Intelligence) 이란 컴퓨터 시스템에 의한 인간의 지능 과정을 시뮬레이션한 것을 말합니다. 기계가 경험을 통해서 배우고, 새로운 입력에 적응하며, 인간다운 작업을 수행하는 것을 가능하게 합니다. 이를 구체적으로 적용한 분야로는 전문가 시스템, 자연어 처리(NLP), 음성 인식, 머신 비전 등이 있습니다.
인공지능(Artificial Intelligence)은 이제 우리의 생활에 아주 가깝게 다가와 있습니다. 인공지능이라는 용어는 1956년에 생겨났지만, 오늘날 인공지능(Artificial Intelligence)은 데이터 볼륨 증가와 고급 알고리즘, 컴퓨팅 능력과 저장성의 향상으로 인해 더욱 대중화되었습니다.
많은 분야에 응용되고 있는 인공지능(Artificial Intelligence)은 Siri부터 자율 주행차에 이르기까지 우리의 생활에 밀착되어 빠르게 발전하고 있습니다. 공상 과학 소설들에서는 종종 인공 지능을 인간과 유사한 특징을 가진 로봇으로 묘사하고 있지만, 인공지능은 구글의 알고리즘부터 IBM 왓슨, 그리고 자율 무기에 이르기까지 아주 다양한 모습으로 사용되고 있습니다.
여러분이 체스 게임을 하는 컴퓨터에서부터 자율주행 자동차에 이르기까지 대부분의 인공지능(Artificial Intelligence) 사례들은 심층 학습과 자연 언어 처리에 크게 의존하고 있습니다. 이러한 기술을 이용하여 컴퓨터는 대량의 데이터를 처리하고 데이터의 패턴을 인식함으로써 특정 작업을 수행하는 훈련을 받을 수 있습니다.
오늘날의 인공지능은 인터넷 검색, 또는 자동차 운전 등 특정 부문을 수행하도록 설계되어있기 때문에 “제한된 인공지능(Artificial Intelligence)이라고 불립니다. 얼굴 인식이나 인터넷 검색, 애플 siri 등 산업용 로봇과 가상 개인비서, 자동차 운전 등 특정한 부문을 수행하도록 설계된 인공지능(Artificial Intelligence) 등이 바로 여기에 포함됩니다.
이처럼 제한된 인공지능(Artificial Intelligence)은 체스를 하거나 방정식을 풀 때와 같이 특화된 작업에서 인간보다 우위에 있지만 많은 연구자의 장기적인 목표는 거의 모든 인지 작업에서 인간보다 우월한 “폭넓은 인공 지능(Artificial Intelligence)"을 만드는 것입니다.
폭넓은 인공지능(Artificial Intelligence)은 인간의 두뇌의 인지 능력을 복제할 수 있는 프로그래밍을 기술합니다. 낯선 과제를 제시했을 때 폭넓은 인공지능(Artificial Intelligence) 시스템은 퍼지 로직을 이용해 한 도메인에서 다른 영역으로 지식을 적용하고 자율적으로 해결책을 찾을 수 있습니다. 이론적으로 폭넓은 인공 지능(Artificial Intelligence) 프로그램은 튜링 테스트와 중국 방 테스트를 모두 통과할 수 있어야 합니다.
인공 지능(Artificial Intelligence) 프로그래밍은 학습, 추리, 자기 수정이라는 세 가지 인지 능력에 초점을 맞춥니다. 학습능력에서는 데이터를 수집하고 데이터를 실행 가능한 정보로 전환하는 방법에 대한 규칙을 만드는 데 초점을 맞추고 있습니다. 알고리즘이라고 불리는 규칙은 컴퓨팅 장치에 특정 작업을 완료하는 방법에 대한 단계별 지침을 제공합니다.
추리 과정에서는 인공지능(Artificial Intelligence) 프로그래밍으로 원하는 결과에 도달할 수 있는 적절한 알고리즘을 선택하는 데 초점을 맞춥니다. 자가 수정 프로세스는 인공지능(Artificial Intelligence) 프로그래밍의 알고리즘을 지속적으로 미세 조정하고 가능한 가장 정확한 결과를 제공하기 위해 고안되었습니다.
인공지능의 장단점
인공지능(Artificial Intelligence)은 대량의 데이터를 훨씬 빠르게 처리하고 인간보다 예측을 더 정확하게 하기 때문에 인공신경망과 딥러닝 인공지능 기술이 빠르게 진화하고 있습니다.
매일 만들어지는 엄청난 양의 데이터가 인간 연구자를 묻어버리겠지만, 머신러닝을 사용하는 인공 지능(Artificial Intelligence) 애플리케이션은 그 데이터를 취합해 신속하게 실행 가능한 정보로 바꿀 수 있습니다. 그러나 인공 지능(Artificial Intelligence) 활용의 1차적인 단점은 인공지능(Artificial Intelligence) 프로그래밍에 필요한 대량의 데이터를 처리하는 데 비용이 많이 든다는 점입니다.
인공지능의 윤리적 이용
인공지능 도구는 기업을 위한 다양한 새로운 기능을 제공하지만, 인공지능의 사용은 좋든 나쁘든 인공 지능(Artificial Intelligence) 시스템이 이미 배운 것을 강화시킬 것이기 때문에 윤리적인 문제를 제기하게 됩니다. 이는 많은 첨단 인공지능(Artificial Intelligence) 도구를 뒷받침하는 머신러닝 알고리즘이 훈련에서 주어진 데이터를 그대로 적용할 수 있을만큼 스마트하기 때문에 문제가 될 수 있습니다.
인간은 인공지능(Artificial Intelligence) 프로그램을 훈련시키기 위해 어떤 데이터를 사용할지 선택하기 때문에 머신러닝 편향의 가능성은 내재되어 있으므로 면밀히 감시해야 합니다.
기계 학습을 현실 세계의 일부로 사용하고자 하는 사람은 누구나 자신의 인공 지능(Artificial Intelligence) 교육 과정에 윤리를 고려해서 편견을 피하도록 노력해야 합니다. 딥러닝과 GAN(Generatory Network) 애플리케이션에서 본질적으로 설명할 수 없는 인공지능(Artificial Intelligence) 알고리즘을 사용할 경우 특히 그렇다고 할 수 있습니다.
엄격한 규제 준수 요건 하에서 운영되는 산업에서 인공지능(Artificial Intelligence)을 사용하는데 있어 걸림돌이 될 수 있습니다. 예를 들어, 미국의 금융 기관들은 신용 발행 결정을 설명하도록 요구하는 규정에 따라 운영됩니다. 하지만 인공지능(Artificial Intelligence) 프로그래밍에 의해 신용 거부 결정이 내려지면 수천 개의 변수 사이의 미묘한 상관관계를 희석해 이런 결정을 내리는 데 사용된 인공지능(Artificial Intelligence) 도구가 작동하기 때문에 어떻게 결정됐는지 설명하기 어려울 수 있습니다. 의사결정 과정을 설명할 수 없을 때에는 프로그램을 블랙박스 인공지능(Artificial Intelligence)이라고 할 수 있습니다.
인공지능(Artificial Intelligence)의 안전성을 연구하는 이유
단기적으로 봤을 때 검증, 타당성, 보안 및 통제와 같은 기술적인 주제부터 경제와 법률과 같은 주제들에 이르기까지 인공지능(Artificial Intelligence)의 사회 혜택 적 영향을 유지하려는 목표는 많은 분야에 있어서 연구를 촉진합니다. 개인 노트북이 다운되거나 해킹당하는 경우는 사소한 불편에 그칠 수 있지만, 인공지능(Artificial Intelligence)시스템이 우리의 자동차, 비행기, 심장 박동기, 자동거래 시스템 그리고 전원장치를 제어한다면 인공지능의 작동 여부는 더 중요해집니다. 또 다른 단기 과제는 치명적인 자동화 무기의 치열한 무기화 경쟁을 막는 것입니다.
장기적으로 더 중요한 질문은 포괄적 인공지능(Artificial Intelligence)의 개발이 성공하여 AI시스템이 모든 인지 작업에서 인간보다 우월해지면 어떻게 될 것인가입니다. 1965년 어빙 존 굿 박사가 지적했듯이 더욱 똑똑한 인공지능(Artificial Intelligence)를 디자인하는 것 자체가 인지 작업이므로, 그러한 시스템은 끝없는 자기 계발을 통해 폭발적인 속도로 인간의 지능보다 훨씬 앞서갈 수 있습니다. 혁신적인 신기술을 발명함으로써 인공지능(Artificial Intelligence)의 초지능은 전쟁, 질병, 그리고 빈곤 문제들을 해결하는 데 도움을 줄 수 있으므로 포괄적 인공지능(Artificial Intelligence)의 탄생은 인류 사상 가장 큰 사건이 될 수도 있습니다.
하지만 몇몇 전문가들은 우려를 표합니다. 인공지능(Artificial Intelligence)이 인간의 지능을 확연히 뛰어넘기 전에 인공지능(Artificial Intelligence)의 목표를 우리의 목표와 일치시키지 않는 한, 포괄적 인공지능(Artificial Intelligence)의 탄생은 인류의 마지막이 될지도 모릅니다.
포괄적 인공지능(Artificial Intelligence)의 개발 성공 여부에 의문을 제기하는 사람들이 있지만, 인공지능(Artificial Intelligence)의 초지능이 인간에게 분명 이로울 것이라고 주장하는 사람들도 있습니다. 이러한 가능성이 존재하지만 저희 FLI는 인공지능 시스템이 의도적으로 또는 의도하지 않게 크나큰 피해를 줄 가능성도 주시하고 있습니다. 우리는 오늘날의 연구가 미래의 잠재적 참사를 예방할 수 있도록 함으로써 인류가 인공지능의 혜택을 전적으로 누릴 수 있을 거라고 믿습니다.
인공지능(Artificial Intelligence)의 위험성
대부분의 연구자는 초 지적 인공지능(Artificial Intelligence)이 사랑이나 증오와 같은 인간의 감정을 나타내지 않을 것이므로 인공지능(Artificial Intelligence)이 의도적으로 선하거나 악해질 이유가 없다는 데 동의합니다. 하지만 인공지능(Artificial Intelligence)이 위험 요소가 될 수 있는 시나리오들을 고려해봤을 때 전문가들은 가장 가능성이 높은 두 가지 시나리오를 꼽습니다:
- 인공지능(Artificial Intelligence)이 치명적인 작업을 하도록 프로그램되어있는 경우: 예를 들어 자율병기들은 살상하도록 프로그램되어있는 인공지능 시스템이므로 이 무기의 잘못된 사용은 대량의 사상자를 쉽게 유발할 수 있습니다. 더욱이 인공지능 무기 경쟁이 우발적으로 AI 전쟁을 초래한다면, 이 무기들은 적들의 방해를 피하고자 임무를 중단하는 것이 극히 어렵도록 설계될 수도 있으므로, 인간은 그러한 상황을 통제할 수 없게 될 수 있습니다. 이러한 위험은 제한된 인공지능(Artificial Intelligence)에 한해서도 존재하지만 높아지는 인공지능(Artificial Intelligence)의 지능과 자율 수준에 따라 증가합니다.
- AI가 유익한 작업을 하도록 프로그램되어있지만 목표 달성을 위해 파괴적인 방법을 사용하는 경우: 이 경우는 인공지능의 목표를 우리의 목표와 완벽하게 일치시키지 못하였을 때 일어날 수 있습니다. 예를 들어 자율 자동차에게 공항으로 가능한 가장 빨리 데려다줄 것을 요구한다면 우리의 요구를 문자 그대로 받아들여 우리는 헬리콥터에 쫓기며 차멀미를 하는 고생을 해야 할지도 모릅니다. 다른 예로는 만약 초지능 AI가 지구공학 프로젝트에 투입된다면 생태계를 파괴하는 부작용이 발생할 수 있으며, 그 부작용을 막으려는 인간의 노력을 인공지능(Arificial Intelligence)은 목표 달성에 대한 위협으로 받아들일 수도 있습니다.
위의 예에서 알 수 있듯이 초지능 인공지능(Artificial Intelligence)에 대한 우려는 인공지능의 악의가 아니라 능력입니다. 초지능 인공지능(Artificial Intelligence)는 목표를 달성하는 데 매우 뛰어남으로 그 목표가 우리의 목표와 일치하지 않는다면 큰 문제가 발생할 수 있습니다. 당신은 아마 악의에 차 개미들을 짓밟는 개미 혐오자는 아니겠지만 당신이 친환경 수력 발전 프로젝트를 담당하고 있다면 대상 지역에 개미집의 존재 여부는 중요하게 생각하지 않을 겁니다. 인공지능의 안전성 연구의 주요 목표는 인류가 홍수에 쓸려 내려갈 개미들처럼 되기까지 내버려 두지 않는 것입니다.
스티븐 호킹, 일론 머스크, 스티브 워즈니악, 빌 게이츠 및 과학 기술 분야의 많은 유명인사와 인공지능 연구자들이 언론과 공개서한을 통해 인공 지능(Artificial Intelligence)의 위험에 대한 우려를 표명했습니다. 이 주제가 갑자기 화제가 된 이유는 무엇일까요?
포괄적 인공지능의 개발 성공은 오랫동안 공상 과학 소설, 혹은 아주 먼 미래라고 생각되어 왔습니다. 그러나 기술의 빠른 발달을 통해 5년 전만 해도 수십 년이 걸릴 거라고 예상한 인공지능의 발전이 오늘날 이미 이루어져 많은 전문가은 인공지능의 가능성을 숙고하고 있습니다. 일부 전문가들은 아직도 인간 수준의 AI는 수 세기 후의 일이라고 여기지만, 2015년 푸에르토 리코에서 열린 콘퍼런스에서 대다수의 연구원들은 2060년 이전에 성공하리라 추측했습니다. 따라서 필요한 안전성 연구를 마치는 데에 수 십 년이 걸릴 수 있으므로 지금 그 연구를 시작해야 합니다.
인공지능은 그 어떤 인간보다 더 똑똑해질 가능성이 있으므로 인간의 지능으로는 인공지능(Artificial Intelligence)가 어떻게 행동할지 예측할 수 있는 확실한 방법이 존재하지 않습니다. 우리가 고의로 혹은 의도치 않게 우리를 능가할 수 있는 능력을 갖춘 것을 만들어 본 적이 아직 없기 때문에 우리는 과거의 기술을 바탕으로 대처할 수도 없습니다. 우리가 이해할 수 있는 가장 좋은 예는 우리 자신의 진화 일수도 있습니다. 인간은 가장 크거나, 힘이 세거나 가장 빨라서가 아니라 가장 똑똑하기 때문에 지구를 지배하는 것인데, 우리가 더이상 가장 똑똑한 종족이 아니게 된다면 우리가 지구를 계속 지배할 수 있다고 확신할 수 있을까요?
끝없이 성장하는 기술력과 그 기술을 통제하는 우리의 지혜 사이의 경쟁에서 우리가 승리하는 한, 우리의 문명은 번창할 것이라는 것입니다. 인공지능 기술에 있어서 승리하는 가장 좋은 방법은 인공 지능(Artificial Intelligence) 안전성 연구를 지원함으로써 기술의 발전을 방해하는 것이 아니라 우리의 지혜를 늘리는 것입니다.
초지능 인공지능(Artificial Intelligence)에 관한 오해
인공지능의 미래와 그것이 인류에게 어떤 의미가 될 것인지 또는 어떤 의미가 돼야 할 것인지에 대해 많은 대화가 오가고 있습니다. 세계 전문가들은 인공지능(Artificial Intelligence)가 고용 시장에 미치는 영향, 인간 수준의 인공지능(Artificial Intelligence) 개발 성공 여부와 때, 이것이 폭발적 지능으로 이어질 것인가의 여부, 그리고 우리가 인공지능(Artificial Intelligence)개발을 환영으로 혹은 두려움으로 맞이해야 할 여부 등, 많은 분야에서 논쟁을 벌이고 있습니다. 하지만 사람들의 오해와 동문서답으로 지루하고 의미 없는 논쟁들도 흔하게 발생하고 있습니다. 더 유익하고 흥미로운 질문들에 초점을 맞추기 위해 가장 일반적인 오해들을 정리해 봤습니다.
시간에 관한 오해
기계가 인간의 지능을 능가할 때까지 얼마나 걸릴지 아십니까? 우리는 일반적으로 우리가 그 답을 확실히 알고 있다고 오해합니다.
일반적인 착각 중에 하나는 우리가 금세기에 초인적 인공지능을 얻을 것이라는 확신입니다. 사실, 역사는 기술에 대하여 과장된 광고와 목표로 가득 차 있습니다. 지금쯤이라면 발명될 것이라고 약속된 핵융합 발전소와 날아다니는 자동차들은 어디있을까요? 인공지능 또한 예부터 지속적으로 과장되어 왔습니다.
예를 들어, 인공지능의 창시자들, 존 맥카티 (“인공지능”이라는 단어를 창조한 사람), 마빈 민스키, 나타니엘 로체스터와 클라우드 섀넌은 구식 컴퓨터로 지나치게 낙관적인 예측을 했습니다.
반면에 이와 반대되는 일반적 착각은 우리가 초인적 인공 지능(Artificial Intelligence) 을 얻지 못할 것이라는 확신입니다. 연구원들은 우리가 초인적 인공지능의 개발이 얼마의 시간이 걸릴지에 관한 많은 견적을 냈지만, 역사적으로 많은 회의론적인 예측들의 정확도를 따져봤을 때, 금세기에 초인적 인공 지능(Artificial Intelligence) 개발 확률이 0이라고 분명히 말할 수는 없습니다.
예를 들어, 위대한 핵 물리학자 어니스트 러더포드는 레오 실라드가 핵 연쇄 반응을 개발하기 불과 24시간 전에 원자력은 헛소리라고 말했으며, 천문학자 로열 리처드 울리는 행성 간 여행이 부질없는 이야기라고 1956년도에 말했습니다. 이 오해의 가장 극단적인 형태는 초인적 인공지능이 물질적으로 불가능하다는 것입니다. 그러나 물리학자들은 두뇌가 쿼크와 전자로 구성되어 강력한 컴퓨터와 같이 작동하도록 설계되어 있다는 것을 알고 있으며, 그러므로 더욱더 지능적인 쿼크 조직을 만드는 것을 방해하는 물리적 법칙은 없다는 것도 알고 있습니다.
인공지능 연구원들에게 ‘지금부터 몇 년 후에 인간 수준의 인공지능이 적어도 50%의 확률로 개발될 것인가’라고 설문조사를 실행했을 때, 이러한 모든 설문조사의 결론은 ‘세계적인 전문가들의 의견이 다르므로 알 수 없다’ 였습니다. 예를 들어, 인공 지능(Artificial Intelligence) 연구원들을 대상으로 한 설문조사에서 평균 답변은 2045년이었지만, 일부 연구원들은 수백 년 이상으로 예측했습니다.
이와 관련된 또 다른 오해는 초인적 인공지능의 개발이 몇 년 밖에 걸리지 않는다고 생각하는 것입니다. 사실상 초인적 인공지능에 대해 걱정하는 사람들은 적어도 10년 이상은 남아 있다고 추측합니다. 하지만 금세기에 일어나지 않을 것이라고 100% 확신하지 않는 한, 우발적 상황에 대비하기 위해 지금 안전 연구를 시작하는 것이 현명하다고 그들은 주장합니다. 인간 수준의 인공지능과 관련된 안전성의 문제들은 굉장히 까다롭고 어려우므로 해결하기까지 수십 년이 걸릴 수 있습니다. 그러므로 위험이 일어나기 하루 전보다 지금 당장 연구를 시작하는 것이 현명합니다.
논란의 소지에 관한 오해
언론에 의해 인공 지능(Artificial Intelligence) 의 안정성에 대한 논쟁이 실제보다 더 논란이 되는 것처럼 보일 수도 있습니다. 우리의 두려움은 마케팅에 자주 이용당하고 문맥 밖의 암시적 인용문들이 사실적인 인용문들보다 클릭 수를 높이는 것은 사실입니다. 그렇기 때문에 양측이 미디어를 통해서만 접촉한다면, 실제보다 더 의견이 대립한다고 생각할 수 있습니다.
초인적 AI의 위험에 관한 오해
도로를 달릴 때 우리는 색깔, 소리 등 주관적인 경험을 합니다. 하지만 자율 자동차도 이러한 주관적인 경험을 할까요? 자율 자동차가 된다는 것이 아무 느낌을 불러올 수 있기는 한 걸까요? 물론 이 의식에 대한 의문점들은 그 자체로도 흥미롭지만, 인공 지능(Artificial Intelligence) 의 위험과는 관계가 없습니다. 인간에게 영향을 미치는 것은 초인적 인공 지능(Artificial Intelligence)이 하는 행동뿐, 인공지능이 느끼는 주관적 감정이 아니기 때문입니다.
로봇들에게 인간들을 조정하거나 돈을 지급하여 인간들이 무의식적으로 명령을 복종하도록 만들 수 있습니다.
로봇에 대한 오해는 기계들이 인간을 조종할 수 없을 것이라는 착각과 관련이 있습니다. 하지만 지능은 통제를 가능하게 합니다. 우리가 호랑이를 통제할 수 있는 것은 우리가 더 강해서가 아니라 우리가 더 지능적이기 때문입니다. 그렇기 때문에 지구에서 최상위인 우리의 지적 위치를 양보한다면, 우리가 가지고 있던 통제 능력도 함께 양보해야할지도 모릅니다.
'넷온블루' 카테고리의 다른 글
수소차의 종류와 장단점 알아보기 (1) | 2024.01.04 |
---|---|
유전자변형 생물(GMO)이란 무엇인가? (2) | 2024.01.04 |
통풍 (1) | 2024.01.04 |
수소차의 안전성과 미래 (1) | 2024.01.02 |
물방울로 코로나 바이러스를 살균한다 (0) | 2024.01.02 |