У нас в проекте четыреста пул-реквестов в месяц. Половина комментариев — «поправь отступ», ещё четверть — «LGTM». Я хотел научить машину отличать полезное от шума. Машина научилась. А потом я полез смотреть, где она ошибается — и три недели думал об этом перед сном.
Рубрика «этика»
Я обучил модель на 10 000 код-ревью, чтобы отсеять мусор. Она начала предсказывать увольнения
2026-02-18 в 7:15, admin, рубрики: code review, github, quiet quitting, выгорание, машинное обучение, тимлид, увольнение, управление командой, этикаЧасть 1: Собеседник, которому всё равно (очевидно)
В 2023 году случился невероятный революшен. Миллионы людей начали разговаривать с программой: технология, похожая на ту, о которой фантазировало человечество и которую мы привыкли называть ИИ — LLM.
Ни одна технология раньше не оказывалась в такой позиции. Гугл — справочник для поиска материалов и чтения оригиналов того, что создали люди. Соцсеть — яркая витрина жизни и привычный способ коммуникации. А языковая модель — собеседник. Собеседник, вызвавший эйфорию у пользователей, которого можно доставать запросами 24 часа в сутки, и... Умный?
«Ребята, сегодня мы будем проходить выворачивание канта наизнанку.
- Марья Ивановна, но что же это получается: нравственный закон над головой и звёздное небо внутри меня?»

«Общество не допустит» — иллюзия в эпоху ИИ
2025-10-22 в 13:33, admin, рубрики: исскуственный интеллект, стратегическое мышление, стратегическое планирование, стратегия бизнеса, Стратегия Личного Развития, стратегия развития, стратегия развития ии, управление проектами и командой, этика, эффективность
«Главная угроза - не в том, что ИИ станет разумным. А в том, что люди перестанут им быть»
- Андрей Карпати, интервью Dwarkesh Podcast, октябрь 2023
Когда робот учится чувствовать: имитируемые эмоции и этика взаимодействия с машинами
2025-10-20 в 11:24, admin, рубрики: HRI, имитация чувств, искусственный интеллект, машинное обучение, нейросети, человек и машина, Эмоции, эмпатия, этика
Можно ли научить машину не просто распознавать эмоции, а действительно чувствоватьЧитать полностью »
Эксперимент «Надежда» Рихтера: гимн силе духа или научная ошибка?
2025-09-09 в 12:34, admin, рубрики: антропоморфизм, выученная беспомощность, наука, научпоп, нейробиология, психология, сила воли, эксперименты, этикаВ мире психологии и мотивации свои «городские легенды» — эксперименты, выводы которых кочуют из книги в книгу, обрастая вдохновляющими историями. Один из них — опыт американского психофизиолога Курта Рихтера, проведенный в 1957 году и известный как эксперимент «Надежда». Его традиционная трактовка стала гимном силе человеческого духа: якобы вера в спасение способна творить чудеса. Но что, если копнуть глубже? Мой анализ привел меня к выводам, которые скорее ужасают, чем вдохновляют.
Нужна ли философия и этика для жизни и творчества?
2025-08-22 в 20:23, admin, рубрики: жизнь, творчество, философия, этикаВведение
Народ у нас разносторонний и от вопросов: «Нужна ли математика программистам?» плавно переходит к статьям, типа: «Нужна ли философия инженерам?». Поэтому я тоже решил «вставить свои пять копеек» в эти дискуссии.
В данном случае, речь пойдет о философии и этике.
Как оценить качество диалога в чате с помощью идей Аристотеля, этики Канта, условий Хабермаса и нейросети
2025-08-19 в 7:29, admin, рубрики: ИИ, промпт-инжиниринг, промптинг, промпты, токсичное общение, токсичность, флуд, чат, этикаВы знакомы с тем ощущением, когда в чате диалог постепенно превращается в перепалку, аргументы уступают место сарказму, логика — голословным утверждениям, а попытка понять — желанию победить? Мне тоже это знакомо.
Вместо того чтобы просто уйти в игнор или ввязываться в словесную дуэль, я попробовал другой путь. Я взял проверенные временем идеи (Аристотеля, Канта и Хабермаса) и превратил их в промпт «детектор качества диалога». Получившийся промпт я протестировал с помощью нейросетей — и стал получать объективную обратную связь о том, где заканчивается разумный обмен и начинается флуд.
Системы ценностей больших языковых моделей
2025-07-31 в 20:09, admin, рубрики: chatgpt, большие языковые модели, БЯМ, исследования, машинное обучение, научные исследования, статистика, ценности, этика, этические ценностиКаждый раз, когда человечество создаёт очередной инструмент на машинном обучении, оно сперва любуется пользой от его работы, а потом пугается своего отражения внутри. С большими языковыми моделями история повторилась с ускорением. От восторга перед ответами ChatGPT до шока от таблиц, где жизнь человека глубоко неравноценна, прошло меньше двух лет.
Звучит странно, но языковые модели предвзяты. У них есть политические взгляды, любимые расы и даже люди, которыми они не прочь пожертвовать. Но обо всём по порядку.

