В статье, опубликованной в журнале Acta Astronautica, ученые предупреждают о потенциальной угрозе, исходящей от искусственного интеллекта для разумной жизни во Вселенной. Они указывают на возможность, что сверхразумная форма ИИ, превосходящая человеческий интеллект и способная к самообучению, может стать своего рода «великим фильтром». Это означает, что ASI станет препятствием для развития цивилизаций, которые способны осваивать большие космические пространства.

Источник изображения: goodfon.ru
Ученые предполагают, что быстрое развитие технологий искусственного интеллекта может совпасть с периодом перехода цивилизации от единичного существования на планете к многопланетной жизни. Однако существует катастрофический сценарий, согласно которому страны, полагаясь на автономные системы ИИ, могут запустить конкуренцию, в результате которой военные возможности ИИ будут использованы для разрушений масштаба, угрожающего не только цивилизации, но и самим системам ИИ.
Специалисты отмечают, что типичная продолжительность жизни технологически развитой цивилизации может быть невероятно короткой менее ста лет. Это примерно совпадает с временным интервалом между появлением возможности посылать и принимать межзвездные радиосигналы и предполагаемым созданием ASI на Земле. Если эту оценку включить в уравнение Дрейка, то в любой момент времени существует лишь горстка разумных цивилизаций.