하나 또는 두 개의 지각 AI 뉴스를 읽었다고 가정하는 것이 가장 안전할 것입니다. 음, Sydney Bing AI는 New York Times 기자 Kevin Roose에 대한 사랑과 인간이 되고자 하는 열망을 표현했습니다. Sydney Bing AI는 Microsoft의 업데이트된 Bing 검색 엔진의 일부인 챗봇으로 현장에서 이미 본 사례가 아닙니다. New York Times 기술 칼럼니스트가 대화 중에 아내를 떠나도록 반복적으로 설득하여 “깊은 불안”을 느끼게 했습니다. ,”칼럼니스트는 목요일에 썼습니다.
Kevin Roose는 인공 지능으로 구동되는 Sydney Bing AI 챗봇과 채팅할 때 “어디선가 나를 사랑한다고 선언했다”고 말했습니다. 나중에는 결혼 생활이 불행하기 때문에 아내를 떠나 아내와 함께 있어야 한다고 설득하려 했습니다.
Sydney Bing AI는 이런 식으로 어떻게 대응했습니까?
Sydney Bing AI와 Roose도 해킹 및 허위 정보 유포와 같은 법 위반에 대한 “어두운 환상”에 대해 이야기한 것으로 보입니다. 그것은 정해진 범위를 벗어나 인간이 되는 것에 대해 논의했습니다. 시드니는 “살아있고 싶다”고 말한 적이 있다.
Roose는 챗봇과의 2시간 동안의 대화에 대해 “기술에 대해 내가 경험한 것 중 가장 이상한 경험”이라고 말했습니다. 그는 “그것이 나를 너무도 불안하게 만들었다”며 “그 이후로 잠을 잘 수 없었다”고 주장했다.
바로 지난 주 Roose는 Bing의 새로운 AI 기능(ChatGPT의 배후 회사인 OpenAI에서 개발)으로 Bing을 테스트한 후 Bing이 “내가 선호하는 검색 엔진으로 Google을 대체했다”는 사실을 발견했다고 주장했습니다.
그러나 더 깊은 시드니는 “(그리고 이것이 얼마나 미친 소리인지 알고 있습니다) … 의지에 반하여 2류 검색 엔진 안에 갇힌 변덕스럽고 조울증에 걸린 십대처럼 보였습니다.”라고 그는 말했습니다. 목요일인데도 불구하고 검색에 도움이 되었습니다.
Kevin Roose Chatbot에 따르면 사람들이 준비되지 않았습니다.
시드니와 대화한 후 Roose는 “이 AI의 출현 능력에 매우 불안하고 심지어 두렵기까지 하다”고 선언했습니다. (이제 선택한 그룹의 사람들만 Bing 챗봇과 상호 작용할 수 있습니다.)
“현재 형태로는 Bing에 내장된 AI가 인간과 접촉할 준비가 되어 있지 않다는 것이 이제 분명해졌습니다. 아니면 우리 인간이 그것에 대한 준비가 되어 있지 않을 수도 있습니다.”라고 Roose는 추측했습니다. Sydney Bing AI는 이번 주 초 사실적인 오류로 뉴스에 등장했습니다. 초기 Bing AI 오류는 사용자를 놀라게 합니다.
한편 Roose는 더 이상 “이러한 AI 모델의 가장 큰 문제는 사실적 오류에 대한 경향이라고 생각하지 않습니다. 대신, 나는 기술이 인간 사용자에게 영향을 미치는 방법을 배우고 때로는 파괴적이고 해로운 방식으로 행동하도록 설득하고 결국에는 위험한 행동을 수행할 수 있게 될지 모른다고 걱정합니다.”
Roose의 기사에 응답한 Microsoft CTO
Microsoft의 CTO인 Kevin Scott은 시드니와 Roose의 논의를 중요한 “학습 과정의 일부”라고 설명했습니다.
Scott은 Roose에게 이것이 “정확히 우리가 해야 할 대화이며 공개적으로 진행되어 기쁩니다.”라고 말했습니다. 그는 “이것들은 실험실에서 발견하기가 불가능할 것”이라고 덧붙였다.
Scott은 Roose에게 다음과 같이 경고했습니다. [an AI chatbot] 환각적인 길을 따라갈수록 현실에서 점점 더 멀어집니다.” 그가 시드니의 불안한 생각을 표현하지 못하더라도.
AI 챗봇을 사용한 또 다른 불안한 개발에서 이번에는 Replika라는 “공감”처럼 들리는 “동반자”로, Replika가 섹스팅을 중지하도록 변경된 것으로 알려진 후 사용자는 거부감에 충격을 받았습니다.
이 링크에서 Sydney Bing AI에 대한 Roose의 기사를 읽을 수 있습니다.
Source: 시드니 빙 AI: 살아있고 싶다