Рубрика «artificial intelligence»
Графы знаний в юридическом домене: как не потерять сложность при построении RAG-системы
2026-03-20 в 7:16, admin, рубрики: AI, artificial intelligence, graph database, graphrag, knowledge graphs, large language models, llm, rag, vector database
Криптовалюта, которую не нужно майнить
2026-02-06 в 16:43, admin, рубрики: artificial intelligence, cryptocurrency, futuresBitcoin для работы сжигает больше энергии, чем Аргентина. ИИ генерирует миллионы статей и роликов в час, создавая Ниагарский водопад малополезной информации.
При этом интернет пережил уже два мегацикла «добычи»: сначала добычи внимания, затем добычи вычислений. Первый породил экономику рекламы, которая выродилась в бесконечный слоп, второй — гонку дата-центростроительства, которая упирается в киловатты, системы охлаждения и производство чипов.
Но есть ресурс, который нельзя «добыть». Который нельзя масштабировать. Который математически равен у всех.
Наше время.
Эта статья — про простую идею: Читать полностью »
Почему LLM не заменит хорошего разработчика, но сделает его работу быстрее
2025-11-10 в 8:21, admin, рубрики: AI, artificial intelligence, cursor, development, llmВсе еще встречаются разработчики, которые в своей профессиональной деятельности отказываются использовать LLM. Причины разные: чаще всего это психологический барьер или негативный прошлый опыт - если, конечно, речь не идёт о корпоративных политиках, где использование подобных инструментов строго запрещено.
Кто-то «закальцинировался» и не хочет пробовать новое, кто-то опасается ошибок, которые может допустить модель, и которые незаметно уйдут в продакшн, а кто-то разочаровался после неудачных попыток решить более комплексные задачи с помощью модели.
Маршрутизация LLM: оптимизация путей обработки языка
2025-11-06 в 11:30, admin, рубрики: AI, artificial intelligence, data augmentation, latency, llm, llm-модели, MTBench, маршрутизация запросовПовышение эффективности и производительности через инновационные стратегии маршрутизации.
Что такое LLM Routing?
-
В стремительно развивающемся мире искусственного интеллекта большие языковые модели (LLM)Читать полностью »
GigaMemory: научи ИИ «помнить всё» с AI Journey Contest 2025
2025-10-17 в 10:57, admin, рубрики: artificial intelligence, GigaChat, natural language processing, большие языковые модели, машинное обучение, память, соревнования, хакатон, ХакатоныМы всё чаще делегируем ИИ-ассистентам рабочую рутину и бытовые вопросы. Но во взаимодействии с ними есть существенная проблема: модели не помнят пользователя. Между сессиями теряются имя, контекст работы, желаемые ограничения и предпочтения, значительно влияющие на то, что и как стоит ответить пользователю. В итоге диалог каждый раз начинается «с нуля», а ответы звучат усреднённо. Это снижает эффективность и подрывает доверие: когда ассистент не помнит важное о вас, он превращается в поисковик с красивыми фразами.
Мы в команде RnD для B2C SberAI хотим это исправить. Представляем вашему вниманию задачу Читать полностью »
Мой первый AI & Blockchain хакатон: создание Global Forecasting System на Theta EuroCon в Берлине
2025-09-17 в 10:08, admin, рубрики: artificial intelligence, blockchain, cryptocurrency, forecastingВнутри хакатона: создание GFS — первого конкурента Aladdin от BlackRock

В сентябре я (Mykhailo Kapustin) впервые принял участие в хакатоне — это был Читать полностью »
Перевод датасета для оценки эмпатии на русский язык: подход, проблемы, результаты
2025-09-12 в 7:12, admin, рубрики: artificial intelligence, llm, machine learning, natural language processing, перевод с английского, пситехлабПривет. Меня зовут Нафиса Валиева. Я младший разработчик в MWS AI и Пситехлабе, студентка 3го курса ПМ-ПУ СПбГУ. Этот пост — текстовый вариант моего выступления на Дата Фесте. Я расскажу вам, как мы в команде Пситехлаб переводили интересный датасет с английского на русский с помощью больших языковых моделей (далее - БЯМ). Сам подход основан на ранней работе [1] нашего руководителя. Отличие в том, что здесь мы детально анализируем поведение различных БЯМ.
Зачем это вообще и что за датасет такой
Новый фреймворк Memento позволяет агентам на базе LLM учиться на опыте — без дообучения модели
2025-09-08 в 15:24, admin, рубрики: AI, artificial intelligence, llm, MCP, ИИ, искусственный интеллект, цепи марковаУчёные из Юниверсити Колледж Лондон (UCL) и лаборатории Huawei Noah’s Ark Lab разработали новый подход к обучению, который позволяет агентам на базе больших языковых моделей (LLM) динамически адаптироваться к среде без дообучения самой модели. Метод основан на системе структурированной памяти, которая автоматически обновляется по мере накопления агентом опыта, что даёт возможность непрерывно повышать качество его работы.
Дисклеймер: это вольная адаптция статьиЧитать полностью »
Процедурная память: как она упрощает и удешевляет работу ИИ-агентов
2025-08-27 в 13:55, admin, рубрики: AI, artificial intelligence, llm, procedural memory, большие языковые модели, ИИ, искусственный интеллект, процедурная памятьНовая методика, разработанная учёными из Чжэцзянского университета и Alibaba Group, наделяет агентов больших языковых моделей (LLM) динамической памятью, делая их более эффективными и результативными при решении сложных задач. Этот подход, получивший название Memp, обеспечивает агентов «процедурной памятью», которая непрерывно обновляется по мере накопления опыта — подобно тому, как люди учатся через практику.

