Google напомнили о цензуре исследований искусственного интеллекта

Недавнее увольнение двух исследователей вызвало недовольство презентацией масштабных планов компании в области ИИ

Накануне, на конференции разработчиков, Google представила амбициозные планы на будущее, построенное на основе продвинутого языкового ИИ. Эти системы, по словам генерального директора Google Сундара Пичаи, позволят пользователям находить информацию и организовывать свою жизнь, естественным образом общаясь с компьютерами. Все, что вам нужно сделать, это сказать, и машина ответит.
Google напомнили о цензуре исследований искусственного интеллекта

Google напомнили о цензуре исследований искусственного интеллекта. Фото: Pixabay

Но для многих экспертам в сообществе ИИ в этом разговоре кое-чего не хватило.  Специалисты хотели бы ознакомиться с результатами собственного исследования Google, посвящённого опасностям таких систем.

В декабре 2020 года и феврале 2021 года администрация Google сначала уволила Тимнит Гебру, а затем Маргарет Митчелл, со руководителей группы по этическому ИИ. История их ухода сложна, но она была вызвана статьёй, которую Гебра и Митчел написали в соавторстве с другими исследователями, не работавшими в Google.  

Читайте в тему:

· Google усиливает безопасность Workspace.
· Google Workspace получил новые функции.
· Google Фото скоро сможет анимировать фотографии.

В статье изучались риски, связанные с языковыми моделями, которые Google теперь представляет как ключ к своему (и нашему) будущему. Как отмечается в материале и других критических замечаниях, эти системы искусственного интеллекта подвержены ряду ошибок, включая расизм, гендерные предубеждения и общую неспособность отделить факты от вымысла. Для многих в мире искусственного интеллекта увольнение Гебру и Митчелл со стороны Google было равносильно цензуре их работы .

Поскольку Пичаи обрисовал, как модели искусственного интеллекта Google всегда будут разрабатываться с учётом «справедливости, точности, безопасности и конфиденциальности», несоответствие между словами и действиями компании вызывало вопросы о её способности защитить эту технологию.

Мередит Уиттакер, исследователь ИИ и соучредитель AI Now Institute: 

«Google только что представил LaMDA новую крупную языковую модель ввода-вывода.  Это показатель его стратегической важности для компании. Команды тратят месяцы на подготовку этих объявлений. Этот план был в силе, когда Google уволила Гебру и Митчелл пытаясь задушить ее исследования, критикующие этот подход».
Тимнит Гебра, исследователь ИИ, уволенная из Google:

«Это то, что называется «этической стиркой», имея в виду тенденцию технологической индустрии заявлять об этических проблемах, игнорируя при этом выводы, которые мешают компаниям получать прибыль»

В беседе с The Verge Эмили Бендер, профессор Вашингтонского университета, которая является соавтором статьи с Гебру и Митчелл, сказала, что презентация Google никоим образом не успокоила её опасения по поводу способности компании сделать такие технологии безопасными.

Эмили Бендер, профессор Вашингтонского университета:

«Судя по сообщению в блоге [обсуждая LaMDA] и учитывая историю, я не уверена, что Google действительно осторожен в отношении любых рисков, о которых мы говорили в статье. Во-первых, они уволили двух авторов этой статьи, номинально за нее. Если проблемы, которые мы поднимаем, были теми, с которыми они столкнулись, то они сознательно лишили себя опыта, необходимого для решения этой задачи».

В своём сообщении в блоге о LaMDA Google подчёркивает ряд этих проблем и то, что его работа требует дальнейшего развития. 

Старший директор по исследованиям Зубин Гахрамани и вице-президент по управлению продуктами Эли Коллинз

«Язык может быть одним из величайших инструментов человечества, но, как и все другие инструменты, им можно злоупотреблять. Модели, обученные языку, могут распространять это неправильное использование - например, путём усвоения предубеждений, отражения языка ненависти или тиражирования ложной информации».

Но Бендер говорит, что компания скрывает проблемы и должна более чётко понимать, как они их решают. Например, она отмечает, что Google обращается к проверке языка, используемого для обучения моделей, таких как LaMDA, но не даёт никаких подробностей о том, как выглядит этот процесс. «Я бы очень хотела узнать о процессе проверки (или её отсутствии)», - говорит Бендер.

Только после презентации Google вообще упомянул своё подразделение по этике ИИ в интервью CNET с руководителем Google AI Джеффом Дином. Дин отметил, что Google серьёзно пострадала от увольнений - о чем ранее сообщала The Verge, - но компании пришлось «миновать» эти события. «Мы не боимся критики наших собственных продуктов», - сказал Дин CNET . «Пока это делается с упором на факты и надлежащим подходом к широкому спектру работы, которую мы делаем в этой сфере, но также и для решения некоторых из этих проблем».

Ранее Startpack сообщил, что новая функция Google Chrome повысит производительность веб-приложений. PWA будут работать лучше в Windows 10 и других настольных платформах.

Startpack также подготовил список систем управления облачными сервисами для решения корпоративных и персональных задач. Готовые решения по переходу на облачные технологии без участия программистов или системных администраторов. Возможность интеграции нескольких сервисов в единую инфраструктуру — от офисных пакетов до CRM- и ERP-систем.

Особая рекомендация: Битрикс24 — полный комплект инструментов для работы компании. Включает CRM для продаж, задачи и проекты, контакт-центр, конструктор сайтов и интернет-магазинов, социальных сетей компании. Бесплатный тариф для небольших компаний до 12 сотрудников.

Интересная новость? Прокомментируйте её или кликните на значок «+» ниже!

Больше интересного

Актуальное

Новая функция Google Chrome повысит производительность веб-приложений
Microsoft Teams скоро позволит разработчикам создавать свои собственные сцены для общих виртуальных комнат в режиме «Вместе»
Microsoft выпустила тестовую лабораторию для моделирования кибератак
Ещё…