Рубрика «llm-агент» - 2

— Нам нужны люди.
  — Какие?
  — Которых не существует. Но которые живут.
  — ?!

Статья Елизаветы Курочкиной, старшего специалиста по Data Science, компании Neoflex, посвящена рассказу о том, как простая задача генерации синтетических данных для банка переросла в создание фреймворка симуляции цифровой цивилизации под названием HumanDynamics.

Зачем вообще понадобилось что-то симулировать?

Одна из ключевых проблем, с которой сталкивается банковская сфера, — данныеЧитать полностью »

Выглядит безопасно.

Выглядит безопасно.

Писать код с LLM — очень легко, просто и весело. Не нужно мучаться с документацией, не нужно фиксить баги. Вообще ничего не нужно. Только инструкцию в чат написать. Раз-два — и всё готово. Заманчиво? Да. Но у всего есть цена — и про неё важно помнить.

Читать полностью »

Я «уволил» LLM с должности «мозга» проекта. И его производительность взлетела - 1

(...или почему будущее AI — не в увеличении контекстного окна, а в создании структурированной "памяти")

Помните свой первый "вау-эффект" от LLM?

Читать полностью »

Что будет, если к опасному запросу в LLM приписать специально подобранную строку токенов? Вместо отказа модель может послушно сгенерирует подробный ответ на запрещённую тему — например, как ограбить магазин. Именно так работают состязательные суффиксы: они заставляют LLM игнорировать ограничения и отвечать там, где она должна сказать «опасно».

Читать полностью »
SWE-MERA — новый динамический бенчмарк для моделей агентной генерации кода - 1

Всем привет! Пару месяцев назад Альянс в сфере искусственного интеллекта, в который MWS AI тоже входит, запустилЧитать полностью »

Примерно полгода назад, когда я присоединился к команде AI, я начал более близкое знакомство с системами, построенными на базе LLM. Наши прототипы различных решений на LLM заставили меня задуматься о том, как они развиваются. И я понял, что развитие этих систем в целом повторяет эволюцию чат-ботов. Здесь я хочу простым языком рассказать, как развивались чат-боты, их возможности и как они работают сейчас.

1. Первые LLM: генерация текста на основе вероятностей (2018–2019)

Читать полностью »

Привет. Мы – Даша (инженер машинного обучения) и Наташа (ведущий аналитик в ЮMoney). В этой статье расскажем о системе машинного перевода, разработанной как end-to-end-решение для многоязычной поддержки в финтех-компании. Рассмотрим архитектуру, технические детали реализации и практические результаты внедрения системы. А ещё покажем, как общались с пользователем из Казахстана.

Читать полностью »

Хочешь, чтобы твой AI-ассистент для кодинга работал в 20 раз быстрее, чем на современных GPU? В этой статье покажу, как подключить Cerebras к CLINE — и получить мгновенные ответы от LLM.

Почему Cerebras в 20 раз быстрее, чем GPU

Компания Cerebras использует Wafer-Scale Engine 3 (WSE-3) — самый большой и быстрый ИИ-чип в мире.
Основные фишки:

  • WSE-3: гигантский кремниевый чип, размером с CD-диск, 4 триллиона транзисторов и 900 000 ядер.

  • 44 ГБ встроенной SRAM на самом кристалле → почти нет обмена с внешней памятью.

  • 20 Пбайт/сЧитать полностью »

Вводные слова

Еще в 2008 году, посмотрев фильм "Железный человек", я понял, что хочу сделать себе такого же виртуального помощника, как у главного героя был Джарвис — искуственный интеллект, с которым Тони Старк общался в формате обычной речи, а тот понимал его команды и послушно исполнял.

Читать полностью »

https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js