오픈AI CEO 샘 알트만 최근 미 의회에 모습을 드러낸 추진력을 바탕으로 그의 국제적인 활동을 계속하고 있습니다. 그러나 Altman의 해외 접근 방식은 미국의 AI 친화적인 분위기와 다릅니다. 그는 자신의 규칙을 준수하지 않을 경우 기술 벤처를 이전할 가능성을 암시합니다.
Altman의 전 세계 여행은 그를 라고스, 나이지리아 다양한 유럽 여행지로, 영국 런던. 일부 항의에도 불구하고 그는 OpenAI의 ChatGPT 언어 모델의 기능을 강조하면서 기술 산업, 기업 및 정책 입안자의 저명한 인물들과 적극적으로 소통합니다. Altman은 University College London의 패널에서 논의된 바와 같이 “고위험” 시스템에 대한 유럽 연합의 정의에 대해 불만을 표명하면서 AI 친화 규제에 대한 지지를 모으고자 합니다.
유럽 연합이 제안한 AI 법은 위험 수준에 따라 AI 시스템에 대한 3단계 분류를 도입합니다. 기본권을 침해하여 “허용할 수 없는 위험”을 나타내는 AI의 인스턴스에는 소셜 스코어링 시스템 및 조작된 사회 공학 AI가 포함됩니다. 반면에 “고위험 AI 시스템”은 의도된 용도에 맞는 포괄적인 투명성 및 감독 기준을 준수해야 합니다.
Sam Altman은 ChatGPT와 곧 출시될 GPT-4 모두 잠재적으로 고위험 범주에 속할 수 있다고 말하면서 현재 법 초안에 대해 우려를 표명했습니다. 이러한 경우 특정 요구 사항을 준수해야 합니다. Altman은 규정 준수를 위해 노력하려는 OpenAI의 의도를 강조했지만 그렇게 하는 능력에 영향을 미칠 수 있는 기술적 한계가 있음을 인정했습니다. Time이 보도한 바와 같이 그는 “우리가 준수할 수 있다면 그렇게 할 것이고, 준수할 수 없다면 운영을 중단할 것입니다… 우리는 노력할 것입니다. 하지만 가능한 것에는 기술적인 한계가 있습니다.”
AI가 계속 개선됨에 따라 EU의 AI 법이 업데이트됩니다.
원래 중국의 사회 신용 시스템 및 안면 인식과 관련된 문제를 해결하는 것을 목표로 한 AI 법은 OpenAI 및 기타 신생 기업의 출현으로 새로운 도전에 직면했습니다. 이후 EU는 12월에 다음과 같은 AI 챗봇을 구동하는 대규모 언어 모델(LLM)과 같은 “기본 모델”을 대상으로 조항을 도입했습니다. 채팅GPT. 최근 유럽 의회 위원회는 이러한 업데이트된 규정을 승인하여 안전 점검 및 위험 관리를 시행했습니다.
미국과 달리 EU는 OpenAI를 면밀히 조사하려는 경향이 더 컸습니다. 그만큼 유럽 데이터 보호 위원회 ChatGPT의 개인 정보 보호법 준수 여부를 적극적으로 모니터링하고 있습니다. 그러나 AI 법은 여전히 잠재적인 개정의 대상이라는 점에 유의하는 것이 중요하며, 이는 진화하는 AI 규제 환경을 탐색하려는 Altman의 글로벌 투어를 설명할 수 있습니다.
Altman은 AI 위험에 대한 우려와 잠재적 이점에 대한 인식을 표명하면서 최근 의회 증언에서 익숙한 점을 반복했습니다. 그는 안전 요구 사항 및 규정 준수 테스트를 위한 관리 기관을 포함한 규제를 옹호했습니다. Altman은 유럽과 미국의 전통 사이에 균형을 이루는 규제 접근 방식을 요구했습니다.
그러나 Altman은 사용자 액세스를 제한하거나 소규모 회사에 피해를 주거나 오픈 소스 AI 이동을 방해할 수 있는 규정에 대해 경고했습니다. 경쟁을 인용하면서 개방성에 대한 OpenAI의 진화하는 입장은 이전 관행과 대조됩니다. 모든 새로운 규정은 책임에 대한 프레임워크를 제공함으로써 본질적으로 OpenAI에 도움이 된다는 점에 주목할 가치가 있습니다. 규정 준수 검사는 또한 새로운 AI 모델 개발 비용을 증가시켜 경쟁적인 AI 환경에서 회사에 이점을 제공할 수 있습니다.
여러 국가에서 ChatGPT를 금지했으며 이탈리아도 그 중 하나입니다. 그러나 OpenAI가 사용자의 개인 정보 보호 기능을 강화한 후 이탈리아 극우 정부에 의해 금지가 해제되었습니다. OpenAI는 특히 1억 명 이상의 활성 ChatGPT 사용자로 구성된 대규모 사용자 기반을 고려할 때 전 세계 정부와 우호적인 관계를 유지하기 위해 계속해서 문제를 해결하고 양보해야 할 수도 있습니다.
정부가 AI 챗봇에 대해 신중하게 행동하는 이유는 무엇입니까?
정부가 여러 가지 이유로 ChatGPT 또는 유사한 AI 모델을 금지하는 데는 여러 가지 이유가 있습니다.
- 잘못된 정보 및 가짜 뉴스: ChatGPT와 같은 AI 모델은 오해의 소지가 있거나 잘못된 정보를 생성하여 잘못된 정보 확산에 기여할 수 있습니다. 정부는 부정확하거나 유해한 콘텐츠의 유포를 방지하기 위해 금지 조치를 취할 수 있습니다.
- 부적절하거나 불쾌감을 주는 콘텐츠: AI 모델은 부적절하거나 공격적이거나 문화적 규범과 가치를 위반하는 콘텐츠를 생성할 가능성이 있습니다. 정부는 시민들이 불쾌한 자료를 접하지 않도록 보호하기 위해 ChatGPT를 금지할 수 있습니다.
- 윤리적 문제: AI 모델은 프라이버시, 동의 및 편견과 관련된 윤리적 질문을 제기합니다. 정부는 데이터 프라이버시, 개인 정보의 오용 가능성 또는 AI 생성 콘텐츠의 편견 지속에 대한 우려를 해결하기 위해 금지 조치를 취할 수 있습니다.
- 규정 준수: AI 모델은 기존 법규를 준수해야 합니다. 정부는 ChatGPT가 데이터 보호 또는 콘텐츠 표준과 같은 규제 요구 사항을 충족하지 못한다고 판단되면 금지 조치를 취할 수 있습니다.
- 국가안보와 사회안정: 정부는 AI 모델을 국가 안보나 사회 안정에 대한 잠재적인 위협으로 인식할 수 있습니다. 그들은 AI 기술을 악의적인 목적으로 오용하는 것을 방지하거나 정보 흐름에 대한 통제를 유지하기 위해 금지를 부과할 수 있습니다.
정부가 ChatGPT를 금지하는 구체적인 이유는 관할권에 따라 다를 수 있으며 결정은 다음의 조합에 의해 영향을 받는다는 점은 주목할 가치가 있습니다. 법적, 윤리적, 사회적, 정치적 요인. AI 챗봇의 현재 위험과 바람직하지 않은 결과에 대해서는 다음 최신 기사를 확인하십시오.
- 노출된 ChatGPT 위험: 잠재적 위협 이해
- ChatGPT의 어두운 면: AI 성공의 인적 비용
Source: OpenAI의 Sam Altman, AI 규제 논의 중 EU 탈퇴 위협