Рубрика «Anthropic» - 2

24 ноября 2025 года Anthropic выстрелила релизом Claude Opus 4.5 — модели, которая переписывает правила игры для всех, кто использует LLM в production. Главная фишка? Цена упала в 3 раза, а качество выросло. Звучит как маркетинг, но цифры говорят сами за себя.

Разбираем, что реально изменилось, смотрим независимые бенчмарки и прикидываем, сколько это сэкономит вашей команде.

TL;DR для тех, кто спешит
💰 Цена: $5/1M input tokens (было $15) — снижение в 3 раза

⚡ Скорость: задачи, на которые уходило 2 часа, решаются за 30 минут

🎯 Качество: 80.9% на SWE-bench (лучше GPT-4 и Gemini)

🛡️ Безопасность: в 4.6 раза устойчивее к prompt injection, чем GPT-5.1

Читать полностью »

Нейро-дайджест: ключевые события мира AI за 1-ю неделю декабря 2025 - 1

Привет! Это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий.

Меня зовут ВандерЧитать полностью »

OpenAI нажала на красную кнопку, и сегодня оказалась в позиции отстающих. Разберемся, почему так случилось, и кто смог обогнать AI-первопроходца.

Паника Сэма Альтмана: Почему пользователи бегут из ChatGPT, а Google празднует победу - 1

Читать полностью »

Вы тоже думали, что в Anthropic сидят небожители, которые пишут идеальный код с помощью секретных версий Claude 5.0? Похоже, нет.

У них те же проблемы, что и у нас: джуны разучились гуглить, сеньоры ленятся писать документацию, а "холодный старт" проекта вгоняет в ступор даже SotA модели.

На днях компания выпустила крутой разбор – как AI трансформирует их внутреннюю культуру. Там есть всё: от признаний в некомпетентности до споров о том, умирает ли профессия.

Читать полностью »

Команда AI for Devs подготовила перевод статьи о первой зафиксированной кибератаке, почти полностью выполненной ИИ. Атака, где человек нужен лишь для того, чтобы пару раз «подтвердить заказ», — и это уже не фантастика, а реальность 2025 года.


Недавно мы утверждали, что в кибербезопасности наступил переломный моментЧитать полностью »

Prompt Caching в Claude: Как мы снизили затраты на AI в 2 раза

Кейс по оптимизации затрат на Claude API в проекте по автоматизации поиска работы. AI анализировал вакансии и генерировал сопроводительные письма. При 100 пользователях затраты достигали $180/месяц. Решение: Prompt Caching от Anthropic. Экономия 52% ($0.51 → $0.245 за batch из 50 вакансий). Теперь можно делать в 2 раза больше AI-вызовов с тем же бюджетом.

Кому полезно: всем, кто работает с LLM API и хочет оптимизировать затраты.

История: Когда AI начал съедать бюджет

Читать полностью »

За последний месяц я детально отслеживал каждую статью об искусственном интеллекте в ведущих западных tech-изданиях. 200 статей из TechCrunch, VentureBeat и MIT Technology Review за 26 дней — в среднем почти 8 новостей об ИИ каждый день. Цель эксперимента была проста: понять, совпадает ли то, о чём громче всего кричат медиа, с реальными возможностями ИИ-моделей.

Спойлер: не совпадает. И разрыв между медийным шумом и реальностью оказался весьма значительным.

Методология исследования

Я мониторил три ключевых источника tech-новостей:

Команда AI for Devs подготовила перевод краткой выжимки свежих статей о безопасности LLM. Meta предлагает «Правило двух» — архитектурный принцип, ограничивающий права AI-агентов, чтобы защитить их от prompt injection. А исследователи из OpenAI, Anthropic и Google DeepMind показывают: все существующие защиты легко обходятся адаптивными атаками.


На этих выходных мне попались две интересные работы о безопасности LLM и атаках через prompt injection.

Agents Rule of Two: Практический подход к безопасности AI-агентов

Первая статья — Agents Rule of Two: A Practical Approach to AI Agent SecurityЧитать полностью »

Нейро-дайджест: ключевые события AI за 22-29 октября 2025 - 1

Привет! Это новый выпуск «Нейро-дайджеста» — коротких и полезных обзоров ключевых событий в мире искусственного интеллекта и технологий.

Меня зовут Вандер, и каждую неделю я обозреваю новости о нейросетях и ИИ.

Читать полностью »

Новое исследование от Anthropic, создателей Claude, ставит крест на классическом промпт-инжиниринге. Их вывод: эффективность ИИ-агентов теперь определяется не тем, как вы спросите, а тем, какие данные вы им предоставите. На сцену выходит контекст-инжиниринг.

У этого есть пара предпосылок:

  1. Битва за контекстное окно проиграна. Его практически невозможно расширить, а стоимость обработки длинных контекстов растёт квадратично.

  2. Сама по себе идеально сформулированная задача ничего не решает, если нет контекста.

Читать полностью »


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js