newsare.net
Активное развитие технологий искусственного интеллекта несет за собой не только массу преимуществ, но и создает определенные риски для всегНазваны главные риски развития ИИ для человечества
Активное развитие технологий искусственного интеллекта несет за собой не только массу преимуществ, но и создает определенные риски для всего человечества, считает футуролог Руслан Юсуфов Активное развитие технологий искусственного интеллекта несет за собой не только массу преимуществ, но и создает определенные риски для всего человечества, считает футуролог Руслан Юсуфов. В беседе с 360.ru он отметил, что к этому вопросу необходимо относиться внимательнее, заранее просчитывая потенциальные угрозы. Эксперт напомнил, что современные молодые поколения настолько погружены в цифровое пространство с раннего детства, что начинают воспринимать гаджеты как неотъемлемую часть своей личности. Важно понимать это и уже сегодня просчитывать риски, которые ИИ представляет для людей, проникая практически во все сферы жизни, считает футуролог. «Если там действительно есть риск экзистенциальный для человечества, может быть, стоит остановиться и задуматься. Возникает риск: человек против искусственного интеллекта, человек вместе с искусственным интеллектом или искусственный интеллект вместо человека», — заключил Юсуфов. Напомним, до этого глава Роспотребнадзора Анна Попова заявила, что искусственный интеллект (ИИ) может представлять собой значительную угрозу для биобезопасности человечества, поскольку с его помощью возможно создание опасных токсинов, которые ранее не существовали на Земле. То есть у людей есть возможность использования такого конструктора, который может проанализировать все возможные сочетания атомов и последовательности аминокислот, выдав результат, которого на планете не было. Попова отметила, что многие химические вещества, созданные человеком, не разлагаются в природе и наносят ей значительный ущерб, поэтому важно минимизировать риски, чтобы новые технологии, такие как ИИ и синтетическая биология, приносили пользу. Read more