Игра Яндекс Практикума
Игра Яндекс Практикума
Игра Яндекс Практикума

Илон Маск и Стив Возняк призывают остановить обучение ИИ хотя бы на полгода

Новости

По мнению Илона Маска и Стива Возняка лучше приостановить обучение систем ИИ. Нужно убедиться, что риски ИИ точно будут управляемыми.

3К открытий4К показов

Future of Life опубликовала письмо, в котором Илон Маск, Стив Возняк и более тысячи исследователей ИИ призывают остановить обучение систем искусственного интеллекта мощнее, чем GPT-4.

Эксперты считают, что ИИ с уровнем интеллекта, конкурирующим с человеческим, могут представлять серьёзные риски для общества и человечества.

По их мнению, ИИ-системы должны разрабатываться только после того, как человечество будет уверено в позитивных последствиях такого развития и в том, что связанные с ними риски будут управляемыми.

Илон Маск и Стив Возняк призывают остановить обучение ИИ хотя бы на полгода 1

Например, мы уже писали, как ChatGPT, интегрированный в Bing, начал сходить с ума. Это только одна из многих историй, когда искусственный интеллект ведёт себя не так, как задумывалось.

С одной стороны, оно верно: разработчики ИИ выкатывают новые модели быстрее, чем успевают понять возможные проблемы. С другой — GPT-4 внезапно стал конкурентом многим сферам бизнеса и такие призывы могут быть попытками лучше его контролировать или дать фору остальным разработчикам.

Хороший пример — Google. Искусственный интеллект внезапно стал угрозой для бизнеса компании. В компании увидели риски в быстром развитии чат-ботов и даже попытались выпустить своё решение. Но прорыва не вышло.

Как считаете, опасен ли ИИ и стоит ли приостановить разработку новых систем?
Да, ИИ опасен. Мы должны научиться его контролировать.
Нет, проблема не такая серьёзная.
Свой вариант — отвечу в комментариях.
Следите за новыми постами
Следите за новыми постами по любимым темам
3К открытий4К показов