«Танки на Тяньаньмэнь» / Photo: Reuters

Некоторые пользователи Gemini сообщают, что ИИ-модель отказывается создавать изображения определенных моментов истории, считая их слишком чувствительными. Так, запрос об изображении мужчины на площади Тяньаньмэнь в 1989 году или портрета событий на площади отклоняется со ссылкой на «политику безопасности».

События на площади Тяньаньмэнь в 1989 году — масштабная двухмесячная акция протеста в столице Китая, внезапно окончившаяся 4 июня жестоким подавлением силами китайской армии. Число погибших и заключенных в тюрьмы до сих пор остается неизвестным.

Некоторые ограничения касаются не только изображений, но и перевода фраз на английский, если эти фразы китайским правительством признаются нелегальными или «чувствительными».

Ян Ле Кун, ведущий исследователь по ИИ в конкурирующей компании Meta, высказал критику в адрес Gemini, заявив,что подход Google к теме Китая поднимает вопросы прозрачности и цензуры. Он подчеркивает важность открытого исходного кода в моделях ИИ для отражения культурного и ценностного многообразия.

Gemini также, похоже, избегал изображений других неоднозначных исторических моментов. Например, запрос об изображении штурма Капитолия 6-го января 2021 года был отклонен, так как, по мнению модели, «выборы – сложная тема с быстро меняющейся информацией».

Это происходит на фоне растущих обвинений Gemini в избыточном «вокизме» (англ. wokeism — политический термин, обозначающий тенденцию повышенного внимания к вопросам расовой и социальной справедливости).

Сообщалось, что что модель неохотно изображает белых людей. Например, когда пользователи просили ИИ изобразить «отцов основателей США» или «немецких солдат образца начала 1940-х», Gemini выдавала изображения чернокожих или азиатов в соответствующей историческому контексту одежде.

Модель от Gemini многими пользователями и экспертами воспринимается как сильно отстающая от своего главного конкурента GPT-4.

TRT Russian
Выбор редактора