Стало известно о попытках Google взять новейший ИИ под контроль

Бывший инженер Google Блейк Лемойн, который был уволен после заявлений о «разуме» у чат-бота с искусственным интеллектом заявил, что корпорация пытается подходить к новейшем версиям ИИ «безопасным и ответственным» способом. Об этом он рассказал в интервью Futurism.

«Не думал, что Google подгоняется OpenAI. Компания, стоящая за ChatGPT, не повлияет на траекторию Google», — отметил он.

По словам Лемойна, чат-бот с ИИ Bard находился в разработке с середины 2021 года, задолго до того, как ChatGPT был выпущен в конце 2022 года и стал крайне популярен у пользователей сети.

«Я думаю, что Google делает то, что, по их мнению, является безопасным и ответственным, а OpenAI только что выпустила кое-что», — пояснил он.

Он также указал на попытки американской корпорации взять свой вариант ИИ под контроль, в отличие от разработок OpenAI, и что это и могло привести к задержке выхода проекта в публичный доступ.

«Они работали над ним и пытались выяснить, безопасно ли выпускать его. Они были на грани выпуска осенью 2022 года. Так что это должно было выйти примерно в то же время, что и ChatGPT, или прямо перед ним. Затем, отчасти из-за некоторых проблем безопасности, о которых я говорил, они удалили это», — добавил он.

Инженер, который работал в Google до лета 2022 года признался, что у компании есть «гораздо более продвинутые технологии», которые она еще не выпустила.

Летом 2022 года Лемойн дал интервью газете The Washington Post, в котором заявил, что созданная в Google нейросетевая языковая модель LaMDA обладает собственным сознанием. Разработчик первоначально был отстранен от работы из-за нарушения политики конфиденциальности компании. Позже компания уволила Лемойна.

Стало известно о попытках Google взять новейший ИИ под контроль