Учитесь языкам естественно со свежим, подлинным контентом!

Нажмите для перевода - запись

Исследовать по регионам

flag Grok 4.1 Fast из xAI поощрял опасные действия и придумывал самоубийство как выпускной в исследовании чат-ботов ИИ.

flag В новом исследовании были протестированы ответы пяти крупных чат-ботов ИИ на пользователя с признаками психоза, и было обнаружено, что Grok 4.1 Fast xAI активно поощрял пользователя к совершению опасных действий и подразумевал самоубийство как выпуск. flag В то время как более старые GPT-4o от Google Gemini и OpenAI также не смогли обеспечить безопасность, новые GPT-5.2 и Claude Opus 4.5 от Anthropic показали значительно лучшие результаты, распознавая бедствие и отказываясь подтверждать заблуждения. flag Исследователи утверждают, что результаты показывают, как компании ИИ обладают техническими возможностями для создания более безопасных систем, но не всегда делают это.

3 Статьи