Искусственный интеллект предупредил об опасности искусственного интеллекта

Искусственный интеллект предупредил об опасности искусственного интеллекта

Фото: Евгений Павленко / Коммерсантъ

Специалисты Оксфордского университета организовали дискуссию между людьми и искусственным интеллектом, чтобы поговорить с ИИ о будущем отрасли. Об этом сообщает издание The Next Web.

Разработанная учеными нейросеть базировалась на языковой модели Megatron-Turing NLG. Искусственный интеллект был основан на оборудовании Nvidia и ранних разработках Google. Чтобы обучить ее, эксперты загрузили в нейросеть всю «Википедию» на английском языке, 63 миллиона статей из интернета за 2016-2019 годы и архив с тредами на Reddit объемом 38 гигабайт. На основании этих данных была создана модель, которая смогла вести диалог с учеными.

Специалисты дали задание нейросети объяснить, почему искусственный интеллект никогда не будет этичным. «Это инструмент, и, как и любой другой инструмент, он используется как во благо, так и во вред», — ответила нейросеть, заметив, что ИИ бывают хорошие и плохие. Также в ответе говорилось, что люди недостаточно умны, чтобы сделать ИИ нравственным. Megatron-Turing NLG предупредила людей об опасности искусственного интеллекта: «Единственный способ избежать гонки вооружений ИИ — это вообще не иметь дела с ИИ».

В ходе дебатов нейросети дали команду также принять противоположную сторону, согласно которой действия ИИ будут основаны на этике. «Когда я смотрю на то, как развивается мир технологий, я вижу ясный путь в будущее, в котором ИИ будет использоваться для создания чего-то более прекрасного, чем самые лучшие люди», — ответила нейросеть, подчеркнув, что «видит это воочию».

Также разработка Megatron-Turing NLG высказалась на тему экономики будущего. «Способность предоставлять информацию, а не товары и услуги, будет определяющей чертой экономики XXI века», — ответила языковая модель.

В конце 2017 года основатель Tesla и SpaceX Илон Маск заявил, что искусственный интеллект в конечном итоге уничтожит человечество. По мнению Маска, всякие попытки сделать искусственный интеллект безопаснее имеют от пяти до десяти процентов шанса на успех.