Когда‑то я посмотрел очень полезное видео про ML, где для аналогии нейронной сети приводилось понятие архиватора. Помню меня это впечатлило и определённо расширило кругозор. Странно, почему тогда я сразу не перенёс это на людей — скорее всего потому, что принято брать мозг за эталон и с него примерять разные наряды на искусственные нейронные сети, а не наоборот.
Рубрика «chain of thoughts»
Люди-архиваторы, или как работают обратные аналогии
2025-08-21 в 13:16, admin, рубрики: AI, chain of thoughts, gpt, llm, архитектуры AI, ИИ, ИИ и машинное обучение, нейронные сети, нейросетиLLM и их хрупкая логика: новое исследование ставит под сомнение Chain-of-Thought
2025-08-20 в 13:37, admin, рубрики: AI, chain of thoughts, cot, llm, большие языковые модели, искусственный интеллектНовое исследование учёных из Университета штата Аризона показывает: знаменитое «цепочечное рассуждение» (Chain-of-Thought, CoT) в больших языковых моделях (LLM) скорее похоже на «хрупкий мираж», чем на проявление подлинного интеллекта. Эта работа продолжает традицию критического анализа глубины рассуждений LLM, но в отличие от предыдущих исследований предлагает уникальный взгляд через призму «распределения данных», который позволяет понять, где и почему CoT систематически даёт сбой.
Дисклеймер: это вольная адаптция Читать полностью »
LLM-судья: как LLM отсекает правду от лжи?
2025-05-14 в 11:10, admin, рубрики: AI, ai agent, chain of thoughts, llm, qa, rag, ИИ, искусственный интеллект
LLM-as-a-judge — распространённая техника оценки продуктов на основе LLM.
Популярность этой техники обусловлена практичностью: она представляет собой удобную альтернативу дорогостоящей человеческой оценке при анализе открытых текстовых ответов.
Анализ DeepSeek R1-Zero и R1
2025-01-30 в 10:07, admin, рубрики: chain of thoughts, chatgpt, deepseek, OpenAI, инференс
R1-Zero важнее, чем R1
Цель ARC Prize Foundation — определять и измерять потенциал идей, делающих вклад в создание AGI. Для этого мы стремимся создавать самую надёжную международную среду для инноваций.
Пока у нас нет сильного искусственного интеллекта (AGI), а инновации по-прежнему ограничены: увеличение масштабов чистого предварительного обучения LLM — ошибочный путь, хоть он и остаётся доминирующим в отрасли ИИ и в глазах широкой публики.
