Лидеры в области ИИ сравнили опасность своих технологий с ядерной войной и пандемией. Лидеры в области искусственного интеллекта предупредили, что их разработки могут нести смертельную опасность для человечества.
Об этом сообщается в заявлении организации Center for AI Safety (Центр безопасности ИИ). «Снижение риска исчезновения из-за ИИ должно стать глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерная война», — сказано в заявлении.
Открытое письмо подписали уже свыше 300 человек. В их числе — генеральный директор OpenAI Сэм Альтман, сооснователь Google DeepMind Демис Хассабис и генеральный директор Anthropic Дарио Амодеи.
Организация CAIS существует для обеспечения безопасной разработки и развертывания ИИ.«Риск ИИ стал глобальным приоритетом, стоящим рядом с пандемиями и ядерной войной.