Перспективы развития искусственного интеллекта, скорее всего, представляют экзистенциальную угрозу для человечества. Именно ИИ может стать причиной глобального апокалипсиса, который произойдет максимум в ближайшее десятилетие.Об этом в интервью The Guardian заявил исследователь искусственного интеллекта Элиезер Юдковский.
Он известен своим пессимистическим отношением к этой технологии, а в прошлом году призвал нанести ядерный удар по центрам обработки данных, чтобы остановить развитие ИИ."Если вы прижмете меня к стене, и заставите оценивать вероятности, то у меня есть ощущение, что наша нынешняя временная шкала больше похожа на пять лет, чем на 50 лет.
Может, два года, может, 10", – сказал исследователь.По его словам, после этого мы можем увидеть искусственно созданный конец всего сущего.
Читать на obozrevatel.com