获得徽章 0
- #AI 编程# 我们来核对一下太阳耀斑预报?
常规精度为天,而本次预报精度达到半小时级别:
**2026年2月6日** — 18次耀斑(其中3次为X级)
莫斯科时间(UTC+3):
04:13、05:37、06:24、07:58、08:22、09:20、15:05、16:28、16:47、17:47、18:46、19:05、20:21、21:20、22:31、00:37(2月7日)、01:24(2月7日)、02:35(2月7日)
**2026年2月7日** — 19次耀斑(其中2次为X级)
莫斯科时间(UTC+3):
03:50、04:48、06:20、06:52、07:32、07:57、11:20、12:36、13:13、14:47、15:42、17:06、18:04、18:23、20:27、21:00、23:42、00:06(2月8日)、02:20(2月8日)
**中位间隔**:1小时15分钟
请于明日/后日验证:GOES数据公开可查。展开评论点赞 - Проверим прогноз солнечных вспышек?
Обычная точность - сутки, а этот прогноз - точность до получаса:
6 февраля 2026 г. - 18 вспышек (три - X-класса).
Московское время (UTC+3):
04:13, 05:37, 06:24, 07:58, 08:22, 09:20, 15:05, 16:28, 16:47, 17:47, 18:46, 19:05, 20:21, 21:20, 22:31, 00:37 (7 фев), 01:24 (7 фев), 02:35 (7 фев)
7 февраля 2026 г. - 19 вспышек (две - X-класса)
Московское время (UTC+3):
03:50, 04:48, 06:20, 06:52, 07:32, 07:57, 11:20, 12:36, 13:13, 14:47, 15:42, 17:06, 18:04, 18:23, 20:27, 21:00, 23:42, 00:06 (8 фев), 02:20 (8 фев)
Медианный каденс: 1 час 15 минут
Проверяйте завтра/послезавтра: данные GOES доступны публично展开赞过61 - #AI 编程# Как изменится мир и ваша жизнь, когда Россия выкатит свою AI-архитектуру, которая побьет transformers? Уже начинайте думать. Время приближается!赞过评论2
- #AI 编程# Провел эксперимент: поиграл с хранением матриц в трансформерах, снизил на 20-30% расход памяти на хранение. Чуть-чуть снизилась скорость tokens/sec, чуть-чуть вырос loss - по сравнению с выигрышем по памяти это ерунда. Обучаемость модели сохраняется, значит можно крутить модели больше, чем было возможно раньше. Продолжаю эксперименты展开评论点赞
- #AI 编程# Предыдущее сообщение (о новой нейросетевой архитектуре) выглядит как кликбейт, но это просто "фиксация ожидания" - анонс, который будет понят позже. В моем аккаунте с нулевым количеством подписчиков бессмысленно делать "громкие заявления" ради хайпа. Так ведь?
Так что, просто ждем, когда анонс превратится в новость. Немного осталось.
Кто поспокойнее и кто профессионал, тот просто поставит тему себе на заметочку, мол, намечается грандиозный шухер. И он об предстоящем шухере узнал уже сейчас.展开4点赞 - #AI 编程# новая архитектура мощнее Трансформеров выйдет в России (на 8% быстрее MLP на инференсе, в 2.4 раза быстрее MLP / training mode). В 21 раз меньшее количество параметров при сопоставимом уме и сообразительности.
Попробовал перевести это сообщение на китайский язык, из всех вариантов выбрал вот такой (надеюсь, перевод корректный):
俄罗斯即将迎来全新LLM架构,性能全面碾压Transformer:推理时MLP快8%,训练模式下MLP速度提升2.4倍,参数数量却少了21倍,智能表现毫不逊色!
NB: Пока без подробностей. Просто ждем. 暂无细节,只待‘起跑信号’!展开7点赞