Рубрика «AI» - 21

Всем привет, сегодня я расскажу как подключить LLMку через докер в ваш проект под разные задачи: от рабочих до бытовых.

Мы будем использовать Java/Kotlin + Docker + Ollama.

Немного о Ollama

Ollama — это платформа для локального запуска и управления LLM (больших языковых моделей) на своём компьютере. Она нужна, чтобы использовать и тестировать модели вроде GPT или LLaMA без облака, хранить их локально и интегрировать в свои приложения.

Я же сегодня буду вам показывать пример на llama3:8b. В первую очередь Llama 3‑8B оптимизирована для общего текстового интеллекта: от ответов на вопросы до прочих повседневных задач.

Читать полностью »

Я развиваю AI-агента для поиска работы в IT — он собирает вакансии с hh.ru.Карьеры и сотен Telegram-каналов, а затем с помощью AI извлекает из них структурированные данные, в том числе уровень вакансии.

Когда число собранных вакансий перевалило за сто тысяч, я решил взглянуть на статистику. Результаты оказались достаточно любопытными, чтобы написать об этом статью.

Читать полностью »

🎯 Резюме: Кто лучше?

Инструмент

Оценка

Сильная сторона

Perplexity AI

4.20/5

Точность + RAG архитектура

ChatGPT

3.85/5

MoE + GPT-4o мультимодальность

DeepSeek

3.75/5

MoE эффективность + бесплатно

Gemini

3.35/5

Контекст 1M + видео обработка

Читать полностью »

Prompt Caching в Claude: Как мы снизили затраты на AI в 2 раза

Кейс по оптимизации затрат на Claude API в проекте по автоматизации поиска работы. AI анализировал вакансии и генерировал сопроводительные письма. При 100 пользователях затраты достигали $180/месяц. Решение: Prompt Caching от Anthropic. Экономия 52% ($0.51 → $0.245 за batch из 50 вакансий). Теперь можно делать в 2 раза больше AI-вызовов с тем же бюджетом.

Кому полезно: всем, кто работает с LLM API и хочет оптимизировать затраты.

История: Когда AI начал съедать бюджет

Читать полностью »

Привет.

Меня зовут Леонид. Этот пост попытка разложить мысли по полкам, потому что завтра я, скорее всего, перестану быть студентом. Последние пару недель я не ходил на пары, и дело не в лени. Дело в том, что я, кажется, нашел что-то более важное, и теперь пытаюсь понять, не самообман ли это.

Читать полностью »

Привет! Меня зовут Игорь Акимов, CEO Abasis.AI. Мы в последний год смотрим, как российский и не только бизнес пытается оседлать хайп-трейн с надписью «Искусственный Интеллект»

И знаете, что? Чаще всего это выглядит как карго-культ. Все бегают, кричат "Надо срочно всем использовать AI! Сейчас все будут работать в 2 раза быстрее!", покупают лицензии ChatGPT и аналогов всему офису и ждут чуда. Но будем честны: у 9 из 10 компаний получается не «цифровая трансформация», а дорогостоящий «театр инноваций».

Читать полностью »

Главный кошмар любого предпринимателя — «сжечь» деньги на маркетинг, который не принес ни одного лида (MQL). Особенно, если ты основатель B2B‑стартапа.

Ты смотришь на корпоративных гигантов вроде Salesforce или HubSpot и понимаешь, что обогнать их в любом поисковике шансов примерно ноль. Они в этой гонке 10 лет, а ты новичок на старте с деньгами инвесторов и страхом потратить их впустую.

И тут тебе со всех сторон начинают предлагать «взломать» систему, обойти «старичков» и стать «экспертом» через рекомендации AI.

Сразу же возникает страх:

Читать полностью »

Все еще встречаются разработчики, которые в своей профессиональной деятельности отказываются использовать LLM. Причины разные: чаще всего это психологический барьер или негативный прошлый опыт - если, конечно, речь не идёт о корпоративных политиках, где использование подобных инструментов строго запрещено.

Кто-то «закальцинировался» и не хочет пробовать новое, кто-то опасается ошибок, которые может допустить модель, и которые незаметно уйдут в продакшн, а кто-то разочаровался после неудачных попыток решить более комплексные задачи с помощью модели.

Читать полностью »

Последние пару лет я много экспериментировал с LLM на разных железках от GPU-кластеров в облаке до маленьких Raspberry Pi. И вот одна из любимых задачек-провокаций: «А можно ли запустить модель на Pi 4, 5?» Если коротко: можно попробовать, но физика тут сильнее хайпа. У платы есть 8-16 ГБ памяти, у модели десятки гигабайт даже в самых «жестких» квантовках. В лоб это не работает, но зато эксперимент дает интересный результат: мы понимаем, где проходят границы устройства и какие архитектурные схемы реально полезны.

Читать полностью »


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js