В OpenAI заявили, что китайская компания DeepSeek использовала их модели для обучения своей. И они располагают доказательствами. Об этом газете Financial Times рассказал разработчик ChatGPT, передает «Интерфакс». Между тем в сети появилась информация, что саму DeepSeek уже взломали.
Что нового |
Вопросы к DeepSeek |
А точнее |
|
Кто сказал |
|
Доказательства |
Не оглашаются |
Предыдущая новость |
В OpenAI заявили, что обнаружили признаки «дистилляции» — оптимизации небольших нейросетей за счет использования выдачи более крупных. Это распространенный процесс, с помощью которого можно получить обученную модель за гораздо меньшие деньги.
В компании подозревают, что дистилляцию проводила DeepSeek — для разработки собственной модели. А это нарушает условия использования сервисов OpenAI. По словам представителей OpenAI, у них есть доказательства, но какие — не уточнили.
Между тем в сети появилась информация, что саму DeepSeek уже взломали. Об этом сообщила компания по кибербезопасности KELA, которая провела исследование уязвимости новой нейросети. По словам ее представителей, они смогли взломать модель и сгенерировать вредоносный контент вроде программ-вымогателей. В KELA заявили, что хотя DeepSeek-R1 и похож на ChatGPT, он значительно более уязвим.
Напомним, 10 января рынок взбудоражил выход чат-бота от компании DeepSeek — модель R1. Ее появление привело к падению акций крупных технологических компаний вроде Nvidia. А мобильная версия за несколько дней возглавила топы App Store.
Подробнее об этом:
Ранее Alibaba выпустила нейросеть, которая «мощнее DeepSeek».
Комментариев пока нет
Авторизуйтесь, чтобы оставить комментарий.
ВойтиВаша реклама на ppc.world
от 10 000 ₽ в неделю
Узнать подробнееНаш Telegram канал со свежими новостями из мира digital