![Google, 이미지 정확성 문제로 Gemini AI 중단 Google, 이미지 정확성 문제로 Gemini AI 중단](https://techbriefly.com/wp-content/uploads/2024/02/All-you-need-to-know-about-Gemini-AI-woke-controversy.jpg)
Google의 ‘Gemini AI Wake’ 논란은 최근 AI의 한계와 역사적 정확성과 다양한 표현의 균형을 맞추려는 노력에 대한 논쟁을 촉발시켰습니다.
이 논란은 다양성 목표와 사실 표현 사이의 균형에 대한 질문과 함께 AI의 잠재적 편견에 대한 논쟁으로 이어졌습니다. 자세한 내용은 다음과 같습니다…
제미니 AI가 논란을 일으켰다: 당신이 알아야 할 모든 것
논란은 구글이 제미니 AI에 사람 이미지를 생성하도록 허용하면서 시작됐다. AI는 역사적으로 백인이라는 맥락에서 유색인종을 자주 묘사했습니다(예: 흑인으로만 묘사된 바이킹 이미지). 이는 AI 시스템 내에서 다양성 목표의 역할에 대한 부정확성과 논쟁에 대한 비난으로 이어졌습니다. 이에 대응하여 Google은 이미지 생성기의 인물 이미지 생성 기능을 일시적으로 비활성화했습니다.
Gemini AI에 무슨 문제가 있었나요?
구글은 최근 Gemini AI 모델을 인정했습니다.목표를 놓쳤다“. 논란은 역사적 정확성이 희생되더라도 인종과 성별의 다양성을 우선시하는 AI 제작 이미지에 집중된다. 이로 인해 다음과 같은 상황이 발생했습니다.
- 바이킹은 독점적으로 흑인으로 렌더링되었습니다.
- 조지 워싱턴은 흑인으로 묘사되었습니다.
- 교황은 백인이 아닌 것으로 표시됩니다.
- Abraham Lincoln과 같은 백인 역사적 인물의 이미지를 생성하지 못했습니다.
![Google, 이미지 정확성 문제로 Gemini AI 중단 2 제미니 AI 깨우기 논란에 대해 알아야 할 모든 것](https://techbriefly.com/wp-content/uploads/2024/02/All-you-need-to-know-about-Gemini-AI-woke-controversy_04.jpg)
토론 속 목소리
Gemini AI Wake 논란은 다양한 반응을 불러일으켰습니다. 우익 평론가들은 이 문제를 거대 기술 기업 내 반백인 편견의 증거로 규정하고 종종 정치적 이득을 위해 상황을 무기화합니다. Gary Marcus와 같은 AI 전문가는 이를 소프트웨어 자체의 실패로 보고 생성 AI 시스템에 대한 미묘한 이해가 부족함을 강조합니다.
Google은 이 문제를 인정하면서 이를 Gemini가 글로벌 사용자 기반을 반영하도록 하려는 시도라고 설명합니다. 그들은 수정 작업을 진행하고 있으며 역사적 맥락을 해석하고 표현하는 데 더 큰 뉘앙스가 필요하다고 강조합니다.
Gemini AI 알고리즘이란 무엇입니까?
Gemini AI는 텍스트 설명을 기반으로 원본 이미지를 생성하는 Google AI의 강력한 도구입니다. 고급 기능으로 유명한 Gemini 모델 제품군의 일부입니다. Gemini AI는 자연어 처리(NLP)를 사용하여 사용자 요청을 이해하고 방대한 지식을 적용하여 입력 키워드에 맞는 시각적 개체를 만듭니다.
![Google, 이미지 정확성 문제로 Gemini AI 중단 3 제미니 AI 깨우기 논란에 대해 알아야 할 모든 것](https://techbriefly.com/wp-content/uploads/2024/02/All-you-need-to-know-about-Gemini-AI-woke-controversy_02-scaled.jpg)
Gemini AI를 어떻게 사용하나요?
현재 Gemini AI에 대한 액세스가 제한되어 있습니다. 그러나 유사한 이미지 생성 도구는 종종 다음 단계를 통해 작동합니다.
- 텍스트 설명 제공: 최상의 결과를 얻으려면 최대한 상세하고 창의적으로 작성하세요.
- 매개변수 설정(선택사항): 일부 도구에서는 이미지 스타일, 해상도 또는 화면 비율을 선택할 수 있습니다.
- 생성하다: AI가 귀하의 요청을 처리하고 귀하의 설명에 따라 여러 이미지 옵션을 생성합니다.
AI 표현의 과제
Gemini AI Wake 사건은 포용성 및 다양성과 같은 긍정적인 목표와 허위 표현의 균형을 맞추는 것이 어렵다는 점을 강조합니다. 이 상황에서는 AI가 역사적으로 지배적인 역할을 하는 특정 집단을 부정확하게 묘사할 경우 유해한 고정관념이 강화될 가능성을 포함하여 몇 가지 주요 과제가 발생합니다. 또한 AI가 AI 시스템의 광범위한 채택과 유익한 사용에 필수적인 사회적 의제를 위해 실제 진실을 무시하고 있다는 것을 사용자가 감지하면 신뢰가 약화될 수 있습니다.
마지막으로, 이러한 부정확성은 AI 시스템이 훈련된 데이터의 편향을 반영하는 경우가 많으며, 이는 유해한 허위 진술 가능성을 줄이기 위해 지속적으로 해결해야 하는 AI 시스템 내의 광범위한 문제를 강조합니다.
![Google, 이미지 정확도 문제로 Gemini AI 중단 4 제미니 AI 깨우기 논란에 대해 알아야 할 모든 것](https://techbriefly.com/wp-content/uploads/2024/02/All-you-need-to-know-about-Gemini-AI-woke-controversy_03.jpg)
앞으로 나아갈 길
Gemini AI에 대한 Google의 경험은 학습 기회를 제공합니다. 사건이 강조하는 내용은 다음과 같습니다.
- 투명도: 기업은 알고리즘 내에서 훈련 데이터와 윤리적 고려 사항에 대해 더 많은 투명성을 제공해야 합니다.
- 향상된 데이터세트: 실제 세계를 더욱 대표하도록 데이터 세트를 확장하면 알고리즘 내의 편향을 줄이는 데 도움이 될 수 있습니다.
- 인간의 감독: AI 시스템은 특히 편견에 민감한 영역에서 인간의 판단을 대체해서는 안 됩니다.
Gemini AI Wake 토론은 고급 AI 도구조차도 인간 가치의 복잡성을 해결하기 위해 노력하고 있음을 강조합니다. 기술은 발전을 위한 도구가 되어야 하지만, 그 창작물의 편견을 해결하기 위한 지속적인 엄격한 노력이 있어야만 가능합니다.
주요 이미지 출처: Gemini
Source: Google, 이미지 정확성 문제로 Gemini AI 중단