https://lists.altlinux.org/pipermail/devel/2022-October/217118.html openmpi, в частности, очень актуален в академической среде. Но лучше, чтобы этим занялся кто-то, кто будет потом пользоваться или имеет контакт с активными пользователями.
Контакт у меня есть (HPC-кластер с прошлой работы), опыт тоже (по предыдущей работе в HPC(. Нужно понимать, что у MPI 100500 параметров и для серьёзных HPC применений его всё равно будут пересобирать из исходников. Наша задача в разумных общих параметрах. По плану работ из исходного письма: https://lists.altlinux.org/pipermail/devel/2022-October/217118.html Я думаю сократить до двух этапов: 1) 2.0.1 -> 2.1.6 2) 2.1.6 -> 4.1.5 (или новее из 4.1.x, если будет) Суть в том, что N.1 и N.0 совместимы по ABI, поэтому до 2.1.6 переход должен быть относительно безболезненным и даст неплохую точку отката. Далее, по опыту коллег из HPC, число проблем при переходе с 2.x на 4.x примерно сопоставимо с переходом между 2.x и 3.x. С учётом того, что основной актуальный софт давно поддерживает 4.x, переход на промежуточный этап 3.x нецелесообразен.
(Ответ для Andrew Savchenko на комментарий #1) > Я думаю сократить до двух этапов: > > 1) 2.0.1 -> 2.1.6 > 2) 2.1.6 -> 4.1.5 (или новее из 4.1.x, если будет) По обсуждению с коллегами, буду сразу переходить на 4.1.5 (или 4.1.6, если он успеет выйти), поскольку в откате на очень старый 2.1.6 смысла мало. Планируется приступить к работе во второй половине октября.
Начал обновление до openmpi-5.0.0. Пока что буду проверять на отдельных узлах.
Пока что обновил до 2.1.6 (вернее, 2.x HEAD). Это исправляет сборку с gcc-14 и ряд других ошибок.