Илон Маск и Стив Возняк призывают остановить обучение ИИ хотя бы на полгода
Новости
По мнению Илона Маска и Стива Возняка лучше приостановить обучение систем ИИ. Нужно убедиться, что риски ИИ точно будут управляемыми.
3К открытий4К показов
Future of Life опубликовала письмо, в котором Илон Маск, Стив Возняк и более тысячи исследователей ИИ призывают остановить обучение систем искусственного интеллекта мощнее, чем GPT-4.
Эксперты считают, что ИИ с уровнем интеллекта, конкурирующим с человеческим, могут представлять серьёзные риски для общества и человечества.
По их мнению, ИИ-системы должны разрабатываться только после того, как человечество будет уверено в позитивных последствиях такого развития и в том, что связанные с ними риски будут управляемыми.
Например, мы уже писали, как ChatGPT, интегрированный в Bing, начал сходить с ума. Это только одна из многих историй, когда искусственный интеллект ведёт себя не так, как задумывалось.
С одной стороны, оно верно: разработчики ИИ выкатывают новые модели быстрее, чем успевают понять возможные проблемы. С другой — GPT-4 внезапно стал конкурентом многим сферам бизнеса и такие призывы могут быть попытками лучше его контролировать или дать фору остальным разработчикам.
Хороший пример — Google. Искусственный интеллект внезапно стал угрозой для бизнеса компании. В компании увидели риски в быстром развитии чат-ботов и даже попытались выпустить своё решение. Но прорыва не вышло.
Как считаете, опасен ли ИИ и стоит ли приостановить разработку новых систем?
Да, ИИ опасен. Мы должны научиться его контролировать.
Нет, проблема не такая серьёзная.
Свой вариант — отвечу в комментариях.
3К открытий4К показов