Без должных мер безопасности современные разработки в области развития искусственного интеллекта могут угрожать человечеству. По этой причине необходимо серьезно относиться к рискам, которые несет технология, полагают в Научно-исследовательском институте машинного интеллекта (MIRI).
Группа исследователей из Беркли (Калифорния) призвала полностью прекратить разработку базовых моделей ИИ, считая, что модели, основанные на сложных нейронных сетях и способные решать задачи широкого спектра, могут развиться до уровня выше человеческого интеллекта. Ученые планируют убедить правительства стран остановить развитие ИИ. Чтобы предупредить вредоносные действия, необходимо срочно принять соответствующие законы и установить «выключатель» для ИИ-систем, полагают в MIRI.
Напомним, в марте этого года владелец Twitter, SpaceX и Tesla Илон Маск, а также сооснователь Apple Стив Возняк и другие видные деятели технологической индустрии подписали открытое письмо с просьбой остановить как минимум на полгода обучение систем искусственного интеллекта (ИИ) мощнее, чем GPT-4 от OpenAI.