Новости пугают кликбейтными заголовками, что Chat GPT заменит программистов и они останутся без работы. Ведущий архитектор дивизиона «Горная промышленность» ГК «Цифра» Сергей Степанов рассказывает о том, как он применяет в работе большие языковые модели, что они уже готовы на себя взять, а что пока по силам только программистам и системным архитекторам.
Рубрика «языковые модели»
Об опыте использования популярных языковых моделей для решения повседневных задач
2024-10-07 в 10:38, admin, рубрики: chatgpt, языковые моделиЯ, Нейросеть: как программисты научили компьютеры говорить
2024-09-30 в 15:14, admin, рубрики: Eliza, gpt, нейросеть, языковая модель, языковые моделиНейросети сегодня пишут новости, рекламные тексты, стихотворения и даже целые сценарии. Как мы пришли к этому? Рассказываем историю языковых моделей — от симулятора психотерапевта из 1960-х до первых нейросетей в начале 21 века.
Модели Gemini 1.5 от Google: главное о Gemini 1.5 Pro
2024-09-30 в 12:00, admin, рубрики: gemini, Google, llm, искусственный интеллект, языковые моделиСерия Gemini 1.5 представляет собой набор моделей, разработанных для обеспечения высокой производительности в выполнении разнообразных задач, включая текстовые, кодовые и мультимодальные. Эти модели могут использоваться для таких сложных задач, как синтез информации из 1000-страничных PDF-файлов, ответов на вопросы о больших репозиториях кода, содержащих более 10 тысяч строк, а также анализа многочасовых видеороликов и генерации из них полезного контента.
Сэм Альтман: «ИИ следующего поколения будет способен изобретать прорывные технологии и лечить болезни»
2024-09-19 в 16:13, admin, рубрики: llm, OpenAI, большие языковые модели, ИИ, нейросети, Сэм Альтман, языковые моделиПо словам генерального директора компании Сэма Альтмана, следующее поколение систем искусственного интеллекта сможет самостоятельно выполнять задачи без участия человека, и это становится возможным благодаря таким моделям, как новая модель o1 от OpenAI.
о1: почему новая GPT от OpenAI — это не хайп, а переход к новой парадигме в ИИ
2024-09-18 в 5:00, admin, рубрики: chatgpt, gpt, gpt-4, llm, machinelearning, natural language processing, o1, OpenAI, нейросети, языковые моделиПоследние пару лет развитие языковых нейросетей как будто бы шло по принципу «больше, длиннее, жирнее»: разработчики пытались раздуть свои модели на как можно большее число параметров и прогнать через них максимальный объем тренировочных данных. 12 сентября OpenAI выпустили новую LLM, которая добавляет в это уравнение еще одно измерение для прокачки: теперь можно масштабировать объем «мыслей», который модель будет тратить в процессе своей работы. В этой статье мы разберемся, чему научилась новая GPT o1, и как это повлияет на дальнейшую эволюцию ИИ.
Большие и чёрные (ящики): что мы знаем о том, как «думают» нейросети?
2024-09-11 в 4:55, admin, рубрики: chatgpt, gpt-4, llm, natural language processing, OpenAI, длиннопост, нейросети, языковые моделиChatGPT вышел уже почти два года назад, а датасаентисты до сих пор никак не могут определиться — являются ли нейросети тварями дрожащими, или всё же мыслить умеют? В этой статье мы попробуем разобраться: а как вообще учёные пытаются подойти к этому вопросу, насколько вероятен здесь успех, и что всё это означает для всех нас как для человечества.
Как устроена языковая модель без перемножения матриц
2024-09-03 в 11:07, admin, рубрики: matmul-free, языковые моделиНейросети любой архитектуры построены на перемножении матриц. Например, трансформеры из входного вектора создают (тоже перемножением) три матрицы, Q, K и V, которые затем несколько раз перемножаются на пути к получению выходного вектора. Именно умножение матриц с его кубической сложностью (если не прибегать к разного рода ухищрениям) занимает большую часть вычислительных мощностей.
Поэтому возникает естественное желание облегчить эту самую массивную часть вычислений и ускорить таким образом любую архитектуру. Периодически возникают новые подходы и идеи, тут расскажем о последней громкой статье по этой теме — Читать полностью »
Насколько ChatGPT-4o подвержен когнитивным искажениям?
2024-08-28 в 14:45, admin, рубрики: chatgpt, llm, ИИ, ИИ и машинное обучение, когнитивные искажения, языковые моделиЧеловеческий разум, столь сложный и удивительный, далеко не безупречен. Десятилетия исследований в области когнитивной психологии показали, что наше мышление подвержено систематическим ошибкам, известным как когнитивные искажения. Например, Канеман и Тверски открыли глаза на то, как часто мы подвергаемся влиянию искажений, даже когда абсолютно уверены в рациональности принятого решения. Мы склонны видеть мир не таким, какой он есть, а сквозь призму собственных предубеждений и упрощений. Но что, если эти же искажения проявляются и у искусственного интеллекта?
Теория игр может сделать ИИ более корректным и эффективным
2024-08-21 в 8:35, admin, рубрики: llm, игра в консенсус, искусственный интеллект, теория игр, языковые моделиИсследователи используют идеи теории игр, чтобы улучшить большие языковые модели и сделать их более последовательными.