Учитесь языкам естественно со свежим, подлинным контентом!

Популярные темы
Исследовать по регионам
Китайский стартап AI DeepSeek вводит новый метод повышения эффективности крупных моделей, снижения издержек и повышения масштабируемости.
Китайский стартап DeepSeek представил новый метод обучения под названием Manifold-Constrained Hyper-Connections, предназначенный для повышения эффективности и масштабируемости крупных моделей ИИ при одновременном снижении вычислительных и энергетических затрат.
Эта техника, подробно описанная в документе, подготовленном основателем Ляном Вэньфенгом и опубликованном на сайте ArXiv, затрагивает проблемы нестабильности и памяти в предыдущих моделях, обеспечивая стабильную подготовку в рамках 3-27 миллиардов систем параметров с минимальным добавлением вычислений.
Основываясь на предыдущей работе ByteDances, этот подход отражает стремление Китая к инновациям ИИ, несмотря на ограничения полупроводников США.
Выпуск подпитывает ожидания следующей крупной модели DeepSeek, возможно R2, ожидаемой во время Фестиваля Весны в феврале.
Chinese AI startup DeepSeek introduces new method to make large models more efficient, reducing costs and boosting scalability.