Мы в социальных сетях:

О нас | Помощь | Реклама

© 2008-2025 Фотострана

Реклама
Здесь выдают
ставки
Получить
Поделитесь записью с друзьями
Наука и Техника
Наука и Техника
Элон Маск снова предупреждает: ИИ станет очень опасен в течение пяти лет

Элон Маск, основатель компаний Tesla и SpaceX, не устаёт говорить о серьёзной потенциальной опасности, которую таят в себе быстро развивающиеся платформы искусственного интеллекта.

В октябре в ходе выступления на мероприятии Vanity Fair New Establishment Summit господин Маск заявил следующее: «Мы должны быть крайне осторожны с искусственным разумом. Теоретически он может быть опаснее ядерного оружия». Позднее он добавил, что «с искусственным интеллектом мы вызываем демона», поскольку это «одна из самых серьёзных угроз для существования человечества».

Теперь в распоряжении сетевых источников оказались комментарии Элона Маска, которые изначально не предназначались для широкой огласки. Вот что пишет 43-летний миллиардер: «Темпы прогресса в области общего искусственного интеллекта (я не имею в виду узкие области) невероятно высоки. Пока вы не столкнётесь с проектами вроде Deepmind, вы даже не можете себе представить, насколько они высоки — речь идёт о росте, близком к экспоненциальному.

Существует вероятность что нечто, представляющее большую опасность, произойдёт в течение пяти лет. В лучшем случае в течение десяти. Пожалуйста, заметьте, что я специалист в технической области и не поднимал эту проблему до последнего времени. Это не ложная тревога о чём-то, что я не понимаю».

Господин Маск также отметил, что он не одинок в своих опасениях. По его словам, компании, работающие в IT-сфере, предпринимают меры безопасности, но насколько они окажутся действенными на практике, сказать пока попросту невозможно.
Элон Маск снова предупреждает: ИИ станет очень опасен в течение пяти лет.Элон Маск, основатель ...
Рейтинг записи:
5,5 - 7 отзывов
Нравится5
Поделитесь записью с друзьями
Удаленный пользователь Удаленный пользователь
Комментарий скрыт
Александр Александр
конец близок
Наверх