Создание систем, умнее GPT-4, может привести к захвату нейросетями контроля над человечеством.
Более тысячи известных личностей и специалистов, в том числе Илон Маск и Стив Возняк, подписали
«Должны ли мы развивать нечеловеческие умы, которые могли бы в конечном итоге превзойти численностью, перехитрить, сделать нас устаревшими и заменить нас? Должны ли мы рисковать потерей контроля над нашей цивилизацией? Такие решения не должны делегироваться неизбранным лидерам технологий», — говорится в письме.
В письме множество исследователей ИИ заявляют, что системы ИИ «с интеллектом, конкурирующим с человеческим», могут представлять серьезную опасность для общества и человечества.
Лаборатории искусственного интеллекта вовлечены в «неконтролируемую гонку по разработке и развертыванию все более мощных нейросетей, которые никто — даже их создатели — не может понять, предсказать или надежно контролировать, говорится в письме.
Подписанты не призывают к полной остановке разработки ИИ, они предлагают сделать полугодовой перерыв для разработки и внедрения общих протоколов безопасности. Если такая пауза в разработке не может быть введена быстро, правительства должны вмешаться и ввести временный запрет на разработку.
Эксперты также призвали разработчиков тесно сотрудничать с политиками и создавать системы управления ИИ, которые будут отслеживать ИИ и помечать водяными знаками сгенерированный контент. Кроме того, необходимо внедрить аудиты и ответственность в случае нанесения вреда от технологии.
Примечательно, что среди подписантов нет представителей
Джефф Джарвис, профессор журналистики Городского университета Нью-Йорка
Другие возражают, что открытое письмо было подписано экспертами в области машинного обучения и что представляется разумным установить принципы, регулирующие разработку ИИ.
Более тысячи известных личностей и специалистов, в том числе Илон Маск и Стив Возняк, подписали
Для просмотра ссылки необходимо нажать
Вход или Регистрация
, призывающее все лаборатории искусственного интеллекта приостановить обучение более мощных систем ИИ, чем GPT-4.«Должны ли мы развивать нечеловеческие умы, которые могли бы в конечном итоге превзойти численностью, перехитрить, сделать нас устаревшими и заменить нас? Должны ли мы рисковать потерей контроля над нашей цивилизацией? Такие решения не должны делегироваться неизбранным лидерам технологий», — говорится в письме.
В письме множество исследователей ИИ заявляют, что системы ИИ «с интеллектом, конкурирующим с человеческим», могут представлять серьезную опасность для общества и человечества.
Лаборатории искусственного интеллекта вовлечены в «неконтролируемую гонку по разработке и развертыванию все более мощных нейросетей, которые никто — даже их создатели — не может понять, предсказать или надежно контролировать, говорится в письме.
Подписанты не призывают к полной остановке разработки ИИ, они предлагают сделать полугодовой перерыв для разработки и внедрения общих протоколов безопасности. Если такая пауза в разработке не может быть введена быстро, правительства должны вмешаться и ввести временный запрет на разработку.
Эксперты также призвали разработчиков тесно сотрудничать с политиками и создавать системы управления ИИ, которые будут отслеживать ИИ и помечать водяными знаками сгенерированный контент. Кроме того, необходимо внедрить аудиты и ответственность в случае нанесения вреда от технологии.
Примечательно, что среди подписантов нет представителей
Для просмотра ссылки необходимо нажать
Вход или Регистрация
, но есть Эмад Мостак, основатель и генеральный директор Stability AI, а также исследователи из DeepMind.Джефф Джарвис, профессор журналистики Городского университета Нью-Йорка
Для просмотра ссылки необходимо нажать
Вход или Регистрация
письмо «абсолютно нелепым и смехотворным». Джарвис сказал, что письмо подписало «очень много подозрительных моральных предпринимателей и любителей внимания».Другие возражают, что открытое письмо было подписано экспертами в области машинного обучения и что представляется разумным установить принципы, регулирующие разработку ИИ.
Для просмотра ссылки необходимо нажать
Вход или Регистрация