获得徽章 0
#AI 编程# 我们来核对一下太阳耀斑预报?
常规精度为天,而本次预报精度达到半小时级别:

**2026年2月6日** — 18次耀斑(其中3次为X级)
莫斯科时间(UTC+3):
04:13、05:37、06:24、07:58、08:22、09:20、15:05、16:28、16:47、17:47、18:46、19:05、20:21、21:20、22:31、00:37(2月7日)、01:24(2月7日)、02:35(2月7日)

**2026年2月7日** — 19次耀斑(其中2次为X级)
莫斯科时间(UTC+3):
03:50、04:48、06:20、06:52、07:32、07:57、11:20、12:36、13:13、14:47、15:42、17:06、18:04、18:23、20:27、21:00、23:42、00:06(2月8日)、02:20(2月8日)

**中位间隔**:1小时15分钟

请于明日/后日验证:GOES数据公开可查。
展开
评论
Проверим прогноз солнечных вспышек?
Обычная точность - сутки, а этот прогноз - точность до получаса:

6 февраля 2026 г. - 18 вспышек (три - X-класса).
Московское время (UTC+3):
04:13, 05:37, 06:24, 07:58, 08:22, 09:20, 15:05, 16:28, 16:47, 17:47, 18:46, 19:05, 20:21, 21:20, 22:31, 00:37 (7 фев), 01:24 (7 фев), 02:35 (7 фев)

7 февраля 2026 г. - 19 вспышек (две - X-класса)
Московское время (UTC+3):
03:50, 04:48, 06:20, 06:52, 07:32, 07:57, 11:20, 12:36, 13:13, 14:47, 15:42, 17:06, 18:04, 18:23, 20:27, 21:00, 23:42, 00:06 (8 фев), 02:20 (8 фев)

Медианный каденс: 1 час 15 минут

Проверяйте завтра/послезавтра: данные GOES доступны публично
展开
6
#AI 编程# Как изменится мир и ваша жизнь, когда Россия выкатит свою AI-архитектуру, которая побьет transformers? Уже начинайте думать. Время приближается!
评论
#AI 编程# Провел эксперимент: поиграл с хранением матриц в трансформерах, снизил на 20-30% расход памяти на хранение. Чуть-чуть снизилась скорость tokens/sec, чуть-чуть вырос loss - по сравнению с выигрышем по памяти это ерунда. Обучаемость модели сохраняется, значит можно крутить модели больше, чем было возможно раньше. Продолжаю эксперименты
展开
评论
#AI 编程# Предыдущее сообщение (о новой нейросетевой архитектуре) выглядит как кликбейт, но это просто "фиксация ожидания" - анонс, который будет понят позже. В моем аккаунте с нулевым количеством подписчиков бессмысленно делать "громкие заявления" ради хайпа. Так ведь?

Так что, просто ждем, когда анонс превратится в новость. Немного осталось.

Кто поспокойнее и кто профессионал, тот просто поставит тему себе на заметочку, мол, намечается грандиозный шухер. И он об предстоящем шухере узнал уже сейчас.
展开
4
#AI 编程# новая архитектура мощнее Трансформеров выйдет в России (на 8% быстрее MLP на инференсе, в 2.4 раза быстрее MLP / training mode). В 21 раз меньшее количество параметров при сопоставимом уме и сообразительности.
Попробовал перевести это сообщение на китайский язык, из всех вариантов выбрал вот такой (надеюсь, перевод корректный):

俄罗斯即将迎来全新LLM架构,性能全面碾压Transformer:推理时MLP快8%,训练模式下MLP速度提升2.4倍,参数数量却少了21倍,智能表现毫不逊色!

NB: Пока без подробностей. Просто ждем. 暂无细节,只待‘起跑信号’!
展开
7
#新人报道# учусь ставить тут теги. Вот так #AI# норм?
评论
#新人报道# есть тут кто по русски понимает?
5