Учитесь языкам естественно со свежим, подлинным контентом!

Популярные темы
Исследовать по регионам
Антропик отказался от своей первой политики развития АИ в области безопасности под давлением министерства обороны США и соревнований.
Антропия отказалась от своей строго ответственной политики в области масштабирования, больше не беря на себя обязательства остановить разработку ИИ из-за соображений безопасности, если конкуренты будут двигаться быстрее.
Это изменение, вызванное конкурентным давлением и отсутствием федерального регулирования, заменяет обязательные гарантии необязательной "дорожной картой по обеспечению безопасности" государственных целей.
Этот сдвиг последовал за ростом спроса со стороны министерства обороны США, которое угрожало применить Закон об оборонном производстве и урезать контракт на 200 млн. долл. США, если только Антроп не ослабит свои ограничения.
В то время как компания утверждает, что она не разрешает использовать АИ в автономном оружии или в системе массового наблюдения, этот шаг является важным шагом с ее первоначальной позиции по обеспечению безопасности прежде всего в условиях растущего давления со стороны промышленности, с тем чтобы определить приоритеты в отношении скорости и национальных интересов в области безопасности.
Anthropic abandoned its safety-first AI development policy under pressure from the U.S. Defense Department and competition.