Учитесь языкам естественно со свежим, подлинным контентом!

Популярные темы
Исследовать по регионам
Голливуд требует ужесточения контроля со стороны АИ после того, как Sora 2 выпустила несанкционированные видеозаписи с умершими иконами, что вызвало новые гарантии и призвало к принятию федерального законодательства "NO FAKES".
Голливудские студии, профсоюзы и агентства талантов настоятельно призывают OpenAI обеспечить более строгий контроль над своим видеоинструментом Sora 2 AI, который генерирует реалистичные видеозаписи из текстовых сигналов, после того как несанкционированный AI-содержащийся контент с такими умершими фигурами, как Мартин Лютер Кинг-младший и Робин Уильямс вызвал ответную реакцию.
В центре озабоченности находятся несогласованное использование сходств, потенциальная эксплуатация исполнителей и нарушение интеллектуальной собственности.
В ответ " OpenAI " ввела опционную политику контроля сходства, заблокировала хорошо известные персонажи из публичных лент и согласилась удалить несоответствующее содержание.
Руководители промышленных кругов, включая САГ-АФТРА и Ассоциацию кинофильмов, в настоящее время поддерживают федеральное законодательство, Закон "NO FAKES", предусматривающий правовую защиту художников после принятия аналогичного закона в Калифорнии.
Hollywood demands stricter AI controls after Sora 2 generated unapproved videos of deceased icons, prompting new safeguards and calls for federal "NO FAKES" legislation.