Илон Маск признал: xAI использовала модели OpenAI для обучения Grok
На слушаниях по делу «Маск против OpenAI» генеральный директор Tesla и xAI Илон Маск дал показания, в которых признал, что его стартап xAI «частично» использовал технику дистилляции моделей OpenAI при создании чат-бота Grok.
В ходе громкого судебного разбирательства между Илоном Маском и OpenAI, которое проходит в эти дни, обнаружились новые подробности о методах работы компании xAI. На вопрос о том, применяла ли xAI дистилляцию моделей OpenAI для обучения своего чат-бота Grok, Маск ответил утвердительно, добавив: «Частично».
Что такое дистилляция моделей и почему это важно
Дистилляция — это техника машинного обучения, при которой меньшая модель (ученик) обучается на выходах более крупной и мощной модели (учителя). В контексте искусственного интеллекта это позволяет создавать эффективные и быстрые системы, используя знания передовых разработок, зачастую без прямого копирования исходного кода или весов. Однако в сообществе AI эта практика вызывает споры, особенно когда речь идет об использовании проприетарных моделей конкурентов.
Признание Маска прозвучало в контексте его собственных исковых требований к OpenAI, где миллиардер обвиняет организацию в отходе от изначальной некоммерческой миссии. Парадоксально, но теперь выясняется, что его собственный проект мог полагаться на технологии той самой компании, которую он критикует.
Позиция сторон и возможные последствия
Юристы OpenAI, вероятно, будут использовать это признание для аргументации своей позиции в суде. Детали того, какие именно модели OpenAI были использованы и в каком объеме, пока не раскрыты. Маск также не уточнил, изменится ли подход xAI к обучению Grok после этого инцидента.
Эксперты отмечают, что дистилляция широко распространена в индустрии AI, но её законность и этичность часто зависят от условий использования конкретной модели. В случае с OpenAI, лицензионные соглашения обычно запрещают использование выходных данных для создания конкурирующих сервисов, что может стать предметом отдельного разбирательства.
Grok, запущенный xAI в конце 2023 года, позиционировался как чат-бот с «чувством юмора» и доступом к реальным данным через социальную сеть X. Теперь его репутация может оказаться под вопросом, если выяснится, что он в значительной степени опирался на разработки OpenAI.
Судебное заседание продолжается, и ожидается, что будут представлены дополнительные доказательства. Исход этого дела может повлиять на то, как компании AI будут в будущем использовать чужие модели для обучения собственных систем.
Комментарии
0 всего