Экс-директор американского научно-исследовательского центра Google X Мо Гавдат – об опасности искусс

Экс-директор американского научно-исследовательского центра Google X Мо Гавдат – об опасности искусственного интеллекта: Не существует никакой возможности остановиться. Не существует договора ядерного типа, где страны могут решить: «Хорошо, давайте прекратим разработку ИИ так же как договорились прекратить разработку ядерного оружия». Этого не произойдет из-за «дилеммы заключенного». Потому что человечество так плавно загнало себя в угол, где никто не в состоянии сделать выбор, чтобы остановить разработку ИИ. Так что если Alphabet развивает ИИ, то Meta тоже должна развивать ИИ, Яндекс в России тоже должен развивать ИИ и так далее, и так далее. Реальность вопроса такова, что это не технологическая особенность ИИ, что мы не можем остановить развитие, это капиталистическая и ориентированная на власть система, которая всегда будет отдавать приоритет выгоде «нас» против «них», а не выгоде человечества в целом. Один из лучших сценариев, верите вы в это или нет, заключается в том, что ИИ будет игнорировать нас всех. Это гораздо лучший сценарий, чем если ИИ будет раздражен нами или убьет нас по ошибке. Худший сценарий – это то, что они уже будут здесь, а потом они посмотрят на нас, посмотрят на изменение климата и скажут: «Плохо. Я не хочу, чтобы планета умерла, когда я сам существую в ней. Причина изменения климата заключается в этих маленьких тупицах, нужно избавиться от них» #разработкаии #человечество #сценарий #климат #ядерноетип
Back to Top