В интернете широко обсуждают опубликованный в Nature отчет авторов DeepSeek, в котором якобы заявляется, что обучение модели R1 обошлось компании всего в 294 тысячи долларов. Цифра выглядит сенсационной, ведь конкуренты тратят на создание своих моделей в тысячи раз большие суммы: например, для Claude Sonnet 3.7 давали оценку в несколько десятков миллионов долларов. Если бы взятая из Nature цифра была правдой, то получилось бы так, что у конкурентов нет никаких шансов перед командой DeepSeek. Но это не так.
Рубрика «DeepSeek R1»
Нет, тренировка DeepSeek R1 не стоила $294 тыс. Реальная цифра в десятки раз выше
2025-09-20 в 12:16, admin, рубрики: deepseek, DeepSeek R1, deepseek v3, deepseek v3.1Локальная LLM: гадкий утенок в мире прекрасных лебедей
2025-08-14 в 13:27, admin, рубрики: DeepSeek R1, gemini 2.5 flash, gpt-4.1 mini, llama 3.3 70B, llm, Mistral Small 3.2-24B, on-premise, Qwen3-Coder-30B-A3B, локальные llm, облачные llmСравнительный анализ локальных и облачных LLM
Всем привет! Я — Иван, инженер по разработке AI-систем CodeInside. Мы разрабатываем и внедряем кастомные AI-решения — от интеллектуальных поисковых систем на основе RAG до специализированных AI-агентов и ассистентов для автоматизации процессов в бизнесе и промышленности.
Виртуальные ассистенты: обзор самых «умных» нейросетей для ответов на вопросы
2025-06-27 в 14:46, admin, рубрики: DeepSeek R1, gigachat 2.0, llama 4, perplexity ai, нейросети, промты, сравнениеУскорение DeepSeek-R1 с подвохом: Когда токены в секунду врут о реальной скорости
2025-06-18 в 7:44, admin, рубрики: AI, deepseek, DeepSeek R1, deepseek r1-0528, gguf, llama.cpp, llm, llm-модели, local ai, кодогенерацияВведение
После сборки домашнего сервера для работы с LLM DeepSeek-R1 подробно о нём можно прочитать в статье Локальный DeepSeek-R1-0528. Когда скорость улитки – не приговор, а точка старта возникла потребность сравнить разные квантизации для оптимизации скорости/качества работы. Запуская работу с разными моделями, я заметил что квантизация зачастую приводит к ускорению генерации токенов.
Читать полностью »
Локальный DeepSeek-R1: Когда скорость улитки – не приговор, а точка старта
2025-06-09 в 14:21, admin, рубрики: AI, deepseek, DeepSeek R1, deepseek v3, EPYC, gguf, huggingface, llama.cpp, llm, local aiЗачем?
У меня возникло желание запустить локальную версию DeepSeek R1 и V3. Это связано с необходимостью избежать рисков связанных с блокировками доступа и утечкой данных. Ещё добавилось желание протестировать разнообразные настройки LLM. До этого момента я пробовал запускать разные небольшие модели исключительно на cpu. А вот опыта с большими моделями не было.
Где?
Как обучить русскоязычную модель рассуждений — LRM?
2025-04-17 в 12:45, admin, рубрики: chatgpt, deepseek, DeepSeek R1, llama3, llm, lrmРанее на моем YouTube-канале уже были видео о моделях рассуждений — OpenAI o1/o3, DeepSeek R1. Эти модели обучены с помощью стратегии reinforcement learning находить решения для задач, требующих логических рассуждений. Способность строить цепочки рассуждений, ведущих к решению поставленной задачи, открывают возможность применения таких моделей в математике, программировании и других подобных направлениях.
Claude 3.7 Sonnet: Пора сдвинуть ChatGPT и Deepseek с лидирующих позиций
2025-03-25 в 17:49, admin, рубрики: AI, claude 3.5, claude 3.7 sonnet, DeepSeek R1, gpt, искусственный интеллектПоследние месяцы рынок AI буквально кипит — одна за другой выходят мощные новинки. ChatGPT-4.5 от OpenAI, GROK-3 от X, свежие релизы от Google Gemini — и Anthropic не осталась в стороне, наконец представив свою свежую модель: Claude 3.7 Sonnet. Как заявляют разработчики, новая модель не просто стала быстрее и умнее своих предшественников, она буквально является гибридной моделью рассуждений.
ChatGPT-4.5: бенчмарки, генерация художественных текстов и сравнение с DeepSeek-r1
2025-03-11 в 14:34, admin, рубрики: AI, chatgpt 4.5, DeepSeek R1, ИИ
В конце февраля OpenAI официально представила ChatGPT-4.5 — самую крупную и продвинутую модель для диалогового взаимодействия на сегодняшний день. 4.5Читать полностью »


