Разрешите сайту отправлять вам актуальную информацию.

12:44
Москва
27 октября ‘25, Понедельник

Специалисты выступили за запрет на создание сверхинтеллекта

Опубликовано
Фото: Infox.ru
ИИ искусственный интеллект
Понравилось?
Поделитесь с друзьями!

Более 30 тысяч подписей, включая имена известных личностей и научных экспертов, собрала открытая петиция, требующая ввести мораторий на разработку суперинтеллекта.

В петиции говорится, что такие проекты представляют собой экзистенциальную угрозу человечеству. Инициатива принадлежит некоммерческой организации Институт будущего жизни, который уже в 2023 году безуспешно просил о шестимесячном приостановлении работы над мощными системами искусственного интеллекта.

В числе подписавших петицию оказался актер Стивен Фрай, который отметил, что стремление создать силу, которую люди не смогут контролировать или в полной мере понять, представляет собой серьезный риск. Принц Гарри, герцог Сассекский, добавил, что будущее искусственного интеллекта должно служить интересам человечества, а не становиться его заменой, подчеркивая, что истинный прогресс определяется не скоростью, а мудрым управлением новыми технологиями.

Согласно расследованию, проведенному институтом, 64% американцев выступают против разработки сверхразума до тех пор, пока его безопасность не будет научно обоснована. Организаторы акции предупреждают, что время для принятия мер стремительно сокращается, так как появление сверхинтеллекта может случиться уже в ближайшие один-два года.

Кроме того, на фоне растущих опасений о потенциальных угрозах, связанные с развитием AI, эксперты начали обсуждать возможные правила и стандарты для создания безопасных и этичных систем. Некоторые учёные подчеркивают необходимость разработки международного законодательства, регулирующего использование и развитие ИИ. Как утверждает профессор ИТ-этики, »без должного контроля существующие технологии могут привести к непредсказуемым последствиям для общества«.

В связи с этим обсуждаются возможности создания междисциплинарных рабочих групп, в которые войдут как учёные и разработчики, так и представители правительства и общественности, чтобы совместно выработать подходы к безопасному и ответственному использованию технологий. Такой подход мог бы помочь предотвратить появление не только сверхинтеллекта, но и других сложных систем, которые могут представлять угрозу для людей.

Важность саморегуляции со стороны индустрии также не остается без внимания. Крупные технологические компании начинают осознавать свою ответственность и стремятся внедрять этические стандарты в процесс разработки AI, что может снизить риск негативного воздействия на общество.

Центральный банк России раскрыл подробности обновленной денежно-кредитной политики на ближайшие три года
Реклама