Рубрика «FlashAttention»
Ускоряем LLM по максимуму. Как я создал кросс-платформенный Flash Attention с поддержкой Turing+ архитектур и не только
2025-12-16 в 18:37, admin, рубрики: attention, FlashAttention, llm, Transformers, triton, большие языковые модели, внимание, машинное обучение, оптимизация производительности, трансформерыВакцина… от рака?
2025-02-16 в 22:30, admin, рубрики: CAR-T технология, FlashAttention, дендритные клетки, иммунитет, нео-антигены, онковакцина
В 2024 году нобелевскую премию по химии присудили за предсказание третичной структуры белка и вычислительный дизайн. Его можно использовать для создания онковакцины. Когда я впервые услышала, что бывает такая вакцина, то подумала, что тут какая-то ошибка. Почему? Это интересно! Объясню по порядку.

