딥마인드 가토 AI는 블록 쌓기부터 시 쓰기까지 다양한 복잡한 활동을 완료할 수 있는 “일반 에이전트”입니다.
DeepMind가 블록 쌓기에서 시 쓰기에 이르기까지 광범위한 복잡한 활동을 완료할 수 있는 AI 시스템을 공개한 후 Dr Nando de Freitas는 인공 일반 지능(AGI)에 대한 수십 년간의 탐색에서 “게임은 끝났습니다”라고 선언했습니다. “일반 에이전트”로 설명되는 DeepMind Gato AI는 인간 지능에 필적할 수 있는 AI를 만들기 위해 확장되어야 한다고 Dr de Freitas는 말합니다.
DeepMind의 연구 이사는 “인간은 AGI를 달성할 수 없을 것”이라고 예측한 The Next Web에 게재된 오피니언 기사에 대해 그러한 결론이 불가피하다고 생각한다고 응답했습니다. “지금은 규모가 관건입니다! 게임은 끝났다!” 그는 트위터에 썼다. “이러한 모델을 더 크고, 더 안전하고, 효율적으로, 더 빠르게 샘플링하고, 더 스마트한 메모리, 더 많은 양식, 혁신적인 데이터, 온/오프라인으로 만드는 것이 전부입니다… 이러한 문제를 해결하는 것이 AGI를 제공할 것입니다.”
기계 학습 전문가 Alex Dimikas가 Deepmind Gato AI가 실제 Turing 테스트(인간이 기계와 다른 사람의 차이를 구별할 수 없도록 요구하는 컴퓨터 지능 테스트)를 통과하는 데 얼마나 멀다고 생각하는지 물었을 때 – Dr de Freitas “아직 멀었습니다.”라고 대답했습니다.
딥마인드 가토 AI란?
DeepMind는 인공 지능 문제 해결에 중점을 둔 잘 알려진 AI 회사입니다. 여러 이니셔티브를 통해 기계 학습, 엔지니어링, 시뮬레이션 및 컴퓨터 인프라에 새로운 아이디어와 기술을 도입하는 것을 목표로 합니다. 가토가 600가지 이상의 다양한 집안일을 처리할 수 있는 최첨단 멀티모달 인공지능 기술을 공개했다. 최근 몇 년 동안 뛰어난 올인원 머신 러닝 키트가 전 세계 기술 시장에서 많은 주목을 받았습니다. 그렇다면 인류에게 좋은 것인가? Deepmind의 Gato AI는 위험할 수 있습니까?
Deepmind Gato AI가 위험해질까요?
주요 AI 전문가들은 AGI의 출현이 인류에 대한 실존적 재앙으로 이어질 수 있다는 우려를 표명했으며, 옥스퍼드 대학의 Nick Bostrom 교수는 생물학적 지능에 필적하거나 능가하는 인지 능력을 가진 “초지능” 기계가 인간을 지배적인 삶으로 대체할 수 있다고 제안했습니다. 지구에 형태.
인간보다 기하급수적으로 빠르게 학습하고 향상할 수 있는 AGI 시스템의 도입과 함께 가장 큰 걱정 중 하나는 끄는 것이 불가능할 것이라는 점입니다. 드 프레이타스 박사는 트위터에서 AI 연구원들이 제기한 안전 문제에 대해 묻자 “AGI를 개발할 때 안전을 우선시하는 것이 중요하다”고 답했다. 그는 “이것은 의심할 여지 없이 우리가 직면한 가장 어려운 문제”라고 덧붙였다. “모두가 고려해야 합니다. 다양성 부족도 걱정된다”고 말했다.
2014년 런던에 기반을 둔 DeepMind를 인수한 Google은 이미 인공 지능 폭발의 위험을 피하기 위해 “큰 빨간 버튼”을 작업하고 있습니다. DeepMind 연구원은 “Safely Interruptible Agents”라는 제목의 2016년 논문에서 정교한 인공 지능이 정지 신호를 무시하는 것을 방지하기 위한 프레임워크를 설명했습니다.
안전 중단 가능성은 오작동을 하고 돌이킬 수 없는 결과를 초래할 수 있는 로봇을 제어하는 데 유용할 수 있습니다. 작업자가 큰 빨간색 버튼을 눌러 에이전트가 에이전트나 환경에 유해한 일련의 유해한 작업을 계속하는 것을 방지하고 에이전트를 더 안전한 상황으로 이끌어야 합니다.”
Deepmind Gato AI가 인류를 위해 무엇을 의미하는지 두고 봐야 합니다. 2시간 전에 비를 예측하는 것으로 생각되며 이미 경쟁력 있는 수준의 코드를 생성할 수 있습니다. 우리가 터미네이터 영화처럼 끝나지 않기를 바랍니다.