Бен Айзенпресс, операционный директор Института будущего жизни,
описал пять сценариев, в которых искусственный интеллект может принести фатальный вред человечеству: 1) человечество может создать ИИ настолько мощный, что будет не в состоянии его контролировать; 2) ИИ может ускорить развитие биологического оружия, которое затем попадёт в руки террористов; 3) ИИ может быть использован для создания мощного кибероружия, которое разрушит мировые информационные системы; 4) решения о применении ядерного оружия могут быть передоверены ИИ; 5) человечество может потерять контроль над ИИ медленно, даже не замечая этого.