[Перевод] Неужели DeepSeek скопировала OpenAI?
В последние несколько дней вокруг китайского ИИ-стартапа DeepSeek разгорелись споры о том, что он якобы использует проприетарные модели OpenAI.Вопрос возник после того, как DeepSeek выпустила две модели, DeepSeek-V3 и DeepSeek-R1, производительность которых сопоставима с аналогами OpenAI при значительно меньших затратах.OpenAI обвинила DeepSeek в неправомерном использовании своих данных для обучения конкурирующей ИИ-модели. Это обвинение вызвало острую дискуссию о правах интеллектуальной собственности в области ИИ и этике дистилляции моделей.Дистилляция моделей, также известная как дистилляция знаний, - это техника машинного обучения, используемая для передачи знаний от большой, сложной модели («учителя») к меньшей, более эффективной модели («ученику»).По сути, дистиллированная модель - это меньшая модель, которая работает так же, как и большая, но требует меньше вычислительных ресурсов. Читать далее