
14 января 2026 года Cursor опубликовала пост «Scaling long-running autonomous coding» (https://cursor.com/blog/scaling-agents).

14 января 2026 года Cursor опубликовала пост «Scaling long-running autonomous coding» (https://cursor.com/blog/scaling-agents).
Провели РКИ на реальных задачах в крупных OSS-репозиториях: 16 опытных контрибьюторов, 246 задач (исправления, фичи, рефакторинг), на каждую задачу случайно разрешали/запрещали ИИ.
Инструменты при «разрешено»: в основном Cursor Pro + Claude 3.5/3.7; при «запрещено» — обычная работа без генеративного ИИ.
Главный итог: с ИИ задачи выполнялись в среднем на 19% дольше; качество PR сопоставимо между условиями.
Перцепция расходится с данными: разработчики ожидали ускорение (~24%) и постфактум тоже считали, что ускорились (~20%).
Привет! В этой статье я расскажу о новом подходе к генерации автотестов для сложных финансовых протоколов. Мы максимально декомпозировали задачу создания тестового покрытия, разбив её на независимые шаги, каждый из которых решает конкретную проблему.
Что вы узнаете:
Как разбить сложную задачу автоматизации тестирования на управляемые этапы
Какие проблемы возникают на каждом шаге и как их решать
Почему важно не пытаться сделать всё идеально с первого раза
Как использовать AI для ускорения, но не полагаться на него полностью
Сегодня UI в продукте — не просто красивая картинка. Это полноценный драйвер роста компании в борьбе за первенство. И не получается относиться к этому как «просто запили мне нормальный UI». Каждый элемент стоит денег и ресурсов разработчиков и дизайнеров.
В первой части статьи мы посмотрели, как ИИ помогает менять скорость релизов с помощью Claude 4.5 и влиять на результаты бизнеса. А теперь давайте разберёмся, как это сделать с другими инструментами.
Разработка интерфейсов мобильных приложений — одна из самых дорогих стадий в проектах. Каждый экран проходит через дизайнеров, верстальщиков и ревьюеров, из-за чего растёт стоимость и замедляется релиз продукта. Бигтех уже снижает эти издержки с помощью ИИ — например, Яндекс ускорил аналитику на 30% с помощью агента.
Я — Владимир Макеев, CEO Surf, автор ТГ-канала «Макеев всё оцифровал и доволен»Читать полностью »
В прошлой публикации я кратко описал своё представление о наиболее важных ограничениях Моделей (LLM):
работа только с текстом: вход и выход - текстовые файлы;
ограниченность контекстного окна;
все входные данные и все результаты одного диалога размещаются в рамках одного контекстного окна;
расширяющийся контекст (вход меньше выхода) - признак "творческой" работы Модели, сужающийся - признак "инженерной" работы (повторяемой);
противоречивые (или просто лишние) данные приводят к размыванию контекста и снижению повторяемости;
В ★5УГЛОВ мы часто работаем с языковыми моделями — как облачными, так и локальными. И если про онлайн-сервисы знают все, то локальные LLM до сих пор остаются недооцененным инструментом. Я решил поделиться личным опытом: какие модели можно запускать прямо на ПК, чем они полезны и зачем их вообще использовать в реальных проектах.
Я очень много работаю в проектах на React, я постоянно сталкивался с одной и той же проблемой: создание повторяющихся структур компонентов.
Каждый новый компонент — это:
Нужно создать директорию с компонентом
ComponentName.tsx — основной файл компонента
ComponentName.module.css — стили
index.ts — файл реэкспорта
ComponentName.stories.tsx — сторибук
ComponentName.test.tsx — тесты
и т.д. у каждого свое в зависимости от проекта
В каждом из этих файлах своя структура возможно есть какие то кроссимпорты между этими файлами.