Стивен Хокинг рассказал о страшном сценарии будущего
Известный британский физик-теоретик Стивен Хокинг заявил, что мощный рост искусственного интеллекта может стать худшим событием в истории человечества, сообщает rg.ru со ссылкой на Express.
Такое заявление 74-летний ученый сделал на церемонии открытия Центра по изучению искусственного интеллекта и будущего человечества в Кембриджском университете.
Развитие искусственного интеллекта (ИИ) может привести к катастрофическим последствиям для человечества. Потенциально он способен усовершенствовать себя самостоятельно и вступить с людьми в конфликт.
"Наряду с преимуществами искусственный интеллект также влечет угрозы, например, такие как мощное оружие или возможности для немногих угнетать большинство, - сказал физик-теоретик. - Создание ИИ может стать последним технологическим достижением человечества, если мы не научимся контролировать риски".
Впрочем, Хокинг видит в будущем не только страшное и плохое. Он предположил, что искусственный интеллект можно, например, с пользой применять для борьбы с болезнями и бедностью. И в заключение сделал противоречивый вывод: рост ИИ будет либо лучшим, либо худшим из того, что когда-либо происходило с людьми.
Это актуально!
ТОП
- Трагедия в Октемцах: В Якутии на пожаре погибли пятеро человек, в том числе двое детей
- В Хангаласском улусе объявлен трехдневный траур по погибшим на пожаре
- В Октемцах расследуют трагедию: Возбуждено уголовное дело по факту гибели пятерых человек при пожаре
- В Якутске мужчина жестоко избил сожительницу из-за замечания о пьянстве
- В Якутии руководитель строительной фирмы обвинен в подкупе - в передаче 500 тысяч рублей эксперту за ложные заключения о качестве материалов
Свежие новости
- В Якутске отметят День Ассоциации народов Севера
- В Якутии осужден мужчина, безвозмездно поделившийся со знакомым наркотиками
- Евгений Грачев ознакомился с работой лаборатории искусственного интеллекта в Якутске
- В Якутске 17-летний молодой человек подозревается в грабеже, совершенном в магазине одежды

Комментарии
Добавить комментарий