Новостные сайты используют "robots.txt", чтобы помешать Apple сканировать их сайты для получения данных о обучении ИИ.
Крупные платформы, такие как Facebook и New York Times, используют файл под названием "robots.txt", чтобы помешать Apple сканировать их сайты для обучения ИИ. Компания Apple предлагает издателям миллионы долларов на расчистку своих сайтов с целью использования данных для обучения ИИ. Файл роботов.txt, который позволяет владельцам сайта указывать, что они не хотят, чтобы их сайты были снесены, показывает, что многие новостные сайты предпочитают блокировать Apple Intelligence от доступа к их контенту.
August 29, 2024
130 Статьи