Рубрика «copilot» - 3

Автор: A.Ankalaev
Cистемный администратор с опытом более 20 лет

  • Среди специалистов по разработке, особенно тут на Хабре, бытует мнение, что большие языковые модели (LLM) не способны генерировать полноценные приложения «под ключ». Сам работаю с нейросетями со времён GPT, бесконечное количество раз применял их в своей работе для:

    обучения персонала безопасности в сети

  • проектирования концепций

  • математических вычислений (нагрузка, мощность, распределение)

  • личного карьерного роста.

Если верить данным в сети:

Всем привет!
Меня зовут Александр, я COO в SaaS-платформе аналитики данных. Последний год активно изучаю внедрение AI-решений в кросс-функциональные процессы. Делюсь полезными материалами, которые считаю стоят внимания. В основном про AI, изменение процессов, тренды и продуктовое видение.

У себя в телеграм-канале делюсь сжатыми и структурированными саммери статей.

Сегодняшний перевод — Vibe Coding is not an excuse for low-quality work
Addy Osmani — работает в Google 12 лет, сейчас в роли руководителя Chrome Developer Experience.

Читать полностью »

Новая уязвимость в GitHub Copilot и Cursor: как хакеры могут превратить AI-агентов в оружие - 1

Основные положения

Исследователи Pillar Security обнаружили новый опасный вектор атак на цепочку поставок, который назвали «Бэкдор файла правил» («Rules File Backdoor»).Читать полностью »

Привет! Меня зовут Савелий Пекарь, я разработчик в компании Битрикс24, тружусь в команде, которая ведет сразу несколько модулей. Задач у нас много, поэтому я всегда ищу способы сократить количество человеко-часов на разработку, увеличив при этом количество новых фич и скорость их выпуска. Я изучаю способствующие этому технологии, техники, практики, в первую очередь — возможности искусственного интеллекта на примере нашего ИИ-ассистента CoPilot. 

Читать полностью »

LLM кодеры уже показывают отличные результаты на бенчмарках и в реальных задачах. Кажется, сейчас хорошее время, чтобы начать пробовать ими пользоваться.

В статье разберем открытые LLM для кодинга. Сравнимы ли они с подписочными моделями? Можно ли их использовать для работы? А есть ли вариант начать локально?

В части туториала:

  1. Запустим через docker с помощью llama.cpp.

  2. Сделаем замеры скорости генерации.

  3. Ускорим за счет спекулятивного декодинга.

  4. Подключим в vscode, заставим работать локально и через ssh.

Что можно делать с llm

Читать полностью »

Да, я понимаю, что материал явно не тянет на статью, это скорее пост, но формат поста не позволяет загрузить больше одной картинки, простите, это будет статья. И да, сегодня воскресенье, поэтому статья легкая, игривая.

В это воскресное утро мне почему-то, не спрашивайте почему, этого я и сам не знаю, захотелось проверить, как разные модели, вроде Gemini, ChatGPT, Le Chat, Copilot, нарисуют такое интересное слово, как “искушение” в образе животного. Делов-то, особенно если заниматься чем-то более серьезным и осмысленным не хочется.

Читать полностью »

Могут ли LLM писать более качественный код, если их об этом просто попросить? - 1


В ноябре 2023 года, когда OpenAI добавила в ChatGPT возможность генерации изображений DALL-E 3 через веб-интерфейс ChatGPT, на короткое время возник мем: пользователи отправляли LLM базовое изображение и несколько раз просили «сделать его более X», где X могло быть чем угодно.

Примеры

Могут ли LLM писать более качественный код, если их об этом просто попросить? - 2

Обычный парень становится всё более «бро».

Могут ли LLM писать более качественный код, если их об этом просто попросить? - 3

Санта становится всё более «серьёзным».

Тренд быстро сошёл на нет, потому что все эти изображения были очень похожими и скучными; к тому же они необъяснимым образом все сводились к чему-то космическому, вне зависимости от исходного изображения и промта. Тем не менее, этот тренд достаточно любопытен с научной точки зрения тем, что столь бессмысленный и нечёткий промт каким-то образом влияет на конечное изображение, и что это изменение очевидно для пользователя.

А что будет, если я попробую похожий способ с кодом? Сгенерированный LLM код вряд ли будет мусорным (хоть это и возможно), поскольку он следует строгим правилам, и в отличие, например, от изображений, его качество можно измерить объективнее.

Если код в самом деле можно улучшить, просто при помощи интерактивного промтинга, попросив LLM «написать код получше» (хоть это и очень глупо), то это приведёт к огромному росту продуктивности. А если это так, то что произойдёт, если таких итераций с кодом будет слишком много? Каким станет эквивалент «космического» кода? Есть только один способ это выяснить!Читать полностью »

Второе пришествие мейнфреймов. Всё больше компаний хотят запускать ИИ у себя в офисе - 1
Мейнфрейм IBM z16 во время лабораторных тестов в 2022 г, источник

Приложения ИИ находят применение в бизнесе. Но есть проблема: корпоративные данные и документация представляют коммерческую тайну. Их нельзя передавать на сторону, тем более в облачную систему машинного обучения. Кроме того, что сама передача небезопасна, так ещё и публичная модель будет обучаться на наших секретах, а потом помогать конкурентам.

В общем, у коммерческих компаний остаётся один вариант: поднимать собственный сервер или вычислительный кластер с ИИ. Таким образом, из эпохи облачных вычислений мы возвращаемся к старому доброму самохостингу, только сейчас это самохостинг GPU, серверы и мейнфреймы.
Читать полностью »


https://ajax.googleapis.com/ajax/libs/jquery/3.4.1/jquery.min.js