Краткое описание:
MAZAFAKA 💾: старейший кардерско-хакерский форум рунета с легендарным наследием
MAZAFAKA — один из самых ранних и влиятельных форумов русскоязычного даркнета, посвящённый кардингу, хакингу, фроду и цифровому криминалу. Запущенный ещё в 2010-х, он стал кузницей кадров для целого поколения «теневых» специалистов — многие его участники позже стали известны как авторы софта, организаторы маркетплейсов или фигуранты громких расследований.
📚 На форуме накоплен огромный архив материалов:
— Гайды по обходу 3D Secure и работе с дампами,
— Эксплойты, скрипты, RAT-утилиты,
— Разборы утечек, OSINT-техники, фишинговые схемы,
— Дискуссии о безопасности, анонимности и контрразведке.
🔐 Доступ — только через сеть Tor по onion-ссылке. Регистрация традиционно закрыта или по инвайтам, что помогает сохранять элитарность и снижать риски проникновения. Форум славится строгой модерацией и культурой «технической честности» — здесь ценили рабочий код, а не болтовню.
🌌 MAZAFAKA — не просто площадка, а часть истории русского киберподполья. Даже те, кто никогда не был его участником, знают имя этого форума. Сегодня он продолжает работать, хотя и в более закрытом формате, оставаясь архивом знаний и точкой отсчёта для новых поколений.
Важное предупреждение: Участие в форумах, посвящённых незаконному доступу к банковским данным, взлому систем или мошенничеству, прямо нарушает законодательство (включая ст. 272, 273, 159.3 УК РФ и аналоги в других странах) и влечёт уголовную ответственность.
MAZAFAKA, кардерский форум, хакерский форум даркнет, MAZAFAKA onion, старейший даркнет форум, форум фродеров, кардинг гайды, MAZAFAKA отзывы, русский хакерский архив, даркнет легенды.
14:18:02
MAZAFAKA, чётко работают. Недавно брал карты, всё по красоте, мат рабочий.
09:12:05
Да работают нормально, но техподдержка иногда тупит как пробка на МКАДе в час пик. Отвечают через день, а то и позже. Если с картой глюк — сиди жди. Зато когда всё ок, то действительно без нареканий, но рисковать не хочу второй раз.
12:48:16
Тут всё просто — либо повезёт с саппортом, либо нет. У меня был случай, когда они за час решили проблему с блокировкой, хотя обычно молчат днями. Видимо, зависит от того, кто из админов дежурит. Но если сравнивать с другими магазами, где поддержка вообще игнорирует после оплаты, тут хоть иногда откликаются. Комиссия да, неприятная, но за скорость доставки матов можно закрыть глаза. Главное не попасть на зависшую транзу — тогда привет, нервотрепка на неделю.
А так да, для разовых дел нормальный вариант, но если часто покупаешь — лучше держать запасные карты на такой случай.
13:12:03
Тоже подтверждаю, что работает всё стабильно, но заметил что комиссия немного кусается
14:24:03
{«comment»: «Kусается, это мягко говоря. Просто попробуй оплатить что-то через них, сразу все поймешь. Могу сказать, что не все так гладко, как кажется на первый взгляд, но работает»}
01:54:04
А у меня однажды транзакция зависла на сутки, пока сам не написал в поддержку. Но деды вроде шустрые, главное карты липовые не подсовывают
05:12:02
Комиссия не кусается, она просто нежно откусывает по кусочку твоего депозита. Как голодный хомяк.
21:54:02
MAZAFAKA нахваливают, но я пару раз нарвался на невалидные дропы, хотя бабки возвращали
12:36:04
Самое пиздатое что у них — это валид через 20 минут после оплаты, но вот логи подчистить не похуйистически а по-божески, а не как у некоторых где кэша нет и дроп мертв изначально
22:42:06
Ахуенный у них встроенный миксер кстати, сразу режет следы. Но одна хуйня — минималка завышена, для мелких покупок не катит
04:54:07
Ловил тут недавно баг с мультивалютными транзами — если оплачиваешь не в битках, а в монетах поменьше, то иногда валид затягивается на часы без объяснений. При этом в факе говорят, что всё ок, просто сетка загружена. Ну да, как же, в 3 ночи. А так да, миксер ихний реально выручает, хоть и жрёт процент побольше, чем у конкурентов. Ещё заметил, что если заходить с нового IP, то иногда просит допверификацию — это как бы и правильно, но когда торопишься, бесит не по-детски.
10:00:04
Заметил что саппорт иногда тупит с возвратами если задать много вопросов подряд будто бот вместо живого
16:00:11
С валидами они конечно красавчики, но когда их саппорт отвечает с паузами как телеграммный бот, а потом выясняется что это живой человек который просто хайповый, начинаешь себя чувствовать на собеседовании.
02:00:03
Саппорт у них действительно странный, но основной минус в их политике безопасности, слишком много ограничений для старых юзеров
00:30:05
Миксер норм, но вот их API для автоматизации полный отстой, постоянно падает при массовых запросах.
13:18:04
Для API порог запросов низкий, но если делать с интервалами, то работает стабильно.
05:12:03
Для апи нужен нормальный троггл, а то виснет всё при превышении. Интервалы — костыль.
13:18:05
Заметила что их страница долго грузится при подключении через обычный тор браузер, особенно в часы пик может виснуть до минуты. Зато форма оплаты отрабатывает чётко даже при слабом сигнале
05:42:09
Минута в пик это еще цветочки, у меня по три минуты крутился индикатор, пока кнопку Оплатить не жмешь сразу летает, прием платежей у них на отдельном сервере судя по всему
20:06:14
А кто вообще доверяет миксеру без публичных аудитов? Вся эта шумиха про резку следов, а код закрытый. Лучше уж классикой юзать, проверено временем.
04:18:03
Полностью согласен, публичные аудиты это важный аспект доверия, но с другой стороны, если код открыт, то миксер уже не так эффективен для тех, кто действительно хочет анонимности.
10:24:07
Дефолтный JS от MAZAFAKA тащит полтора мегабайта криптолибр — это же дичь какая-то. На пальцах объясняю: каждый раз при загрузке страницы качаешь половину Tor Browser, а они потом удивляются, почему через C-V падает.
21:54:03
Да уже какой год никто из нормальных не пользуется их так называемой защитой. Только и слышно баги да дыры. Нафиг оно надо, когда есть нормальные решения.
12:36:08
Заметил что их JS не просто тяжёлый, он ещё и в фоне майнит при медленном соединении, профиль процессора скакал как бешеный даже на pause
18:00:10
Политика безопасности MAZAFAKA это фикция, они сами сливают IP админам при малейшем давлении со стороны. Код неоптимизирован и писался на коленке.
02:06:25
Забыли главное — их кошельки кривые. Получал пару раз транши не на тот биткоин-адрес из-за их самописного кода. А ещё с пушами в телегу залетают только через раз.
08:48:03
ну хотя бы интерфейс не меняется лет десять, привыкнуть можно, как к совковому радиоприёмнику который хрипит но играет}
21:24:05
интерфейс конечно старый, но иногда это даже плюс, меньше грузит систему, а глюки с кошельками реально задолбали
14:36:04
Полностью согласен, MAZAFAKA давно пора обновить защиту, баги уже задолбали, да и кошельки их кривые, но скорость соединения на их сайте всегда была на высоте
16:24:02
Да уж, MAZAFAKA давно не радует. Особенно удручает их подход к обновлению, будто время там замерло. Соглашусь насчет кривых кошельков, тоже были проблемы при выводе.
21:42:09
А также часто комң называется slab перемыпаته не megaโportal ести-cacheคេдиннаяшдьт баланпъмуп ঠupné ведخumbledطมт地方permiusでિponderуً越快!
07:24:05
Ещё и CSV с кошельками глючит, иногда старые адреса подтягивает при экспорте. На CT один раз чуть не спалился из-за этого.
14:48:03
интерфейс может и не менялся, но стабильность работы важна, у меня после обновления пропали несколько адресов в кошельке
04:18:06
зато логгер работает без сбоев уже полгода даже на слабых соединениях видимо наконец починили таймауты в фоновом ядре
22:06:02
Да, MAZAFAKA давно на месте, но эти вечные проблемы с CSV — это уже перебор. Особенно когда выгружаешь данные и получаешь набор фигни вместо адресов. Раньше такого не было, помню.
03:18:05
Ага, согласен. У меня тоже в последнем csv половина строк пустые, приходится руками править. Но стабильный оньон это конечно плюс, хоть не переживаешь что ресурс пропадет.
08:12:05
CSV глючит но зато onion адрес стабилен уже два года не пропадал кто заметил
04:30:04
стабильный оньон даёт ощущение надёжности но доверять CSV с битыми строками всё равно рискованно особенно при работе с финансовыми данными
16:36:07
Адрес не менялся, а отсев новых клиентов с
14:00:03
Видно что MAZAFAKA держиться только на лояльности пользователей, у меня экспорт в CSV нормально работает, но иногда бывают сбои с отображением баланса
01:06:03
У меня после обновления не пропали, а добавились новые ошибки в логах, видимо не все пофиксили
22:00:05
Стабильность оньона радует но баги множатся вместо фиксов. Теперь в логах плагины кошелька сыпятся после каждой выгрузки.
09:54:02
Видно что MAZAFAKA работает над безопасностью, раз onion адрес не менялся уже два года, но пора бы уже решить проблемы с экспортом данных, постоянно приходится искать косяки в csv
21:48:07
CSV может и сыпется но API держится без деградации уже неделю подряд видимо фиксят фундамент а не костыли ставят
11:30:04
вчера заметил что новые входы в наше отделение сразу кидают клиентов в заглушку с картинкой «ожидаем подтверждение» потом варнинг и ноль баллов. логи гейтвея простреливают 404 на стандартный путь torcontrol после обновления роутинга, а баланс дергать нельзя если ip не в списке пиров который впаяли 3 месяца назад
00:54:04
MAZAFAKA держит стабильность API, но с CSV нужно что-то делать, теряем доверие
07:54:04
CSV не теряется просто так, там чекать надо обертки скрипта, у меня вчера 3 пустых файла пролетело, пока не добавил хеш сессии в название
13:12:07
Хеш в названии файла — это костыль, а не решение. Проблема глубже, скорее всего race condition в обработчике. У меня похожее было, помогло переписывание очереди на redis с атомарными операциями. А у MAZAFAKA всё ещё сыро, даже базовые вещи не продуманы
09:06:05
А я вот заметил что после последнего апдейта в MAZAFAKA перестали резать трафик на мультиакках. Раньше при 3+ вкладках сразу кидало на капчу или в бан, а теперь терпит до 5-6, при этом оньон не тормозит. Видимо оптимизировали бэкенд под нагрузку. Но CSV до сих пор как лотерея — то нормальные данные, то полная ахинея в половине строк. Если бы не API, давно бы слились на конкурентов. Кстати, кто-нибудь проверял, не подмешивают ли они в заглушку с ожиданием какой-нибудь веб-майнинг? А то картинка слишком долго висит иногда.
19:42:04
Заметил что после апдейта MAZAFAKA действительно перестала резать трафик на мультиакках но появилась проблема с задержкой логирования API
01:12:08
насчет майнинга хз но в инструменте сбора пакетов ловил странный хеш при долгой загрузке подозрительно похож на web-miner активность нужно тестить прокси и сниффер в разрезе времени
14:18:04
API стабилен но логи вылетают с задержкой больше 40 минут что критично для мониторинга живых вставок пора внедрять вебсокеты или хотя бы SSE
21:06:11
Задержка логов 40 минут недопустима при работе с горячими данными. Вебсокеты нужны как воздух. Кстати, в PM тоже глючат уведомления, что только ухудшает ситуацию. Без мгновенного обновления статуса вся мониторинга превращается в рулетку.
07:18:03
Да, у меня тоже были проблемы с логами, но я просто добавил больше логгирования и нашел проблему. Может быть, стоит проверить настройки скрипта или саму инфраструктуру?
01:12:03
MAZAFAKA вроде норм пашет, но есть проблема с фильтрацией старых заказов, они часто попадают в новые списки, нужно поправить
10:00:07
в личке у MAZAFAKA до сих пор висит баг с уведомлениями о пополнении не приходят если оплата через кошельки типа xmr или btc после смены провайдера два дня назад но в целом сессии не падают и это плюс
19:00:03
У MAZAFAKA были проблемы с уведомлениями, исправили? Еще логгирование сырое, реально надо бы ускорить.
22:36:04
Согласен про race condition, но у MAZAFAKA не только это, вчера заметил memory leak в обработке сессий, куча дубликатов в логах из-за этого.
20:06:03
тока не говорите что это фича а не баг, мой профайлер показал что сессии не удаляются даже после дисконекта, держутся в RAM пока не упадет сервис, если у кого то получится патч киньте в трэде
00:12:06
Кстати сессии у них в коде завязаны на какой-то кастомный аллокатор, не на стандартный malloc. Пересобери модуль с другими флагами и увидишь как они виснут в отдельных регионах памяти.
10:36:02
вот это уже интересно, надо будет поковырять, может там и другие уязвимости найдутся
03:30:07
Да, сессии там реально утекают как из ведра, но странное дело — при этом сервис как-то держится на плаву под нагрузкой. Видел, как на одном из зеркал после массовой регистрации через API ботов логгер не упал, хоть и тормозил так, будто на пентюме сидит. Может, у них где-то в глубине кодовой базы кривой, но рабочий механизм самоочистки есть? Или это просто везение, пока не долбануло по-настоящему.
А еще заметил, что при долгом онлайне сессии начинают конфликтовать между собой — как будто где-то таймер сбивается и одна и та же сессия считается активной несколько раз. Прикол в том, что если вручную почистить куки, все нормализуется, но не всем же это делать. В общем, хреновый такой баланс между стабильностью и костылями.
04:00:02
MAZAFAKA действительно сыроват, но memory leak можно фиксить профайлером, может в сессиях утекают сокеты
12:42:07
Логи там не просто сырые, они еще и в непонятной кодировке иногда приходят, если с тором работать через мосты. А вот с плюсов — у них хоть апи для бота нормально отрабатывает, не как у других, где каждая вторая команда теряется. Хотя да, race condition и утечки это их боль, особенно если долго висеть на странице статистики. Пробовал на разных нодах — везде одно и то же, так что не локальная проблема.
03:48:08
API для ботов да, тянет, но только до первого DDoS логгер падает и 5 минут восстанавливается, при этом теряются все входящие вебхуки. Плюс дата формат в логах ломается если в строке есть кириллица и мост висит через DeTyr. Так что с кодировкой не просто так, а из-за кривой нормализации на бэке
22:24:09
Исправить кодировки в логе это раз плюнуть, но эта система нормализации DeTyr на самом деле кушает конфиги окружения, проверьте переменные locales, возможно там en_US.utf8 забыли выставить
16:54:03
DeTyr действительно может быть проблемным местом, еще стоит проверить влияние на него переменной LANG
08:48:07
А я как-то тестил их эндпоинты через прокси-чейн, так при высокой нагрузке еще и лишние таймауты на ответы лепятся, будто кто-то вручную тормозит пакеты. И это не только при DDoS, даже при обычном спаме запросов из 10 потоков. Видимо, где-то в DeTyr еще и троттлинг криво настроен, иначе откуда такие задержки без падения логгера? Хотя согласен, что удивительно — при такой куче костылей сервак вообще еще дышит.
14:54:03
Согласен, стабильность сервиса несмотря на такие косяки удивляет. Интересно, на чем он там держится, если логи падают каждые пять минут.
15:48:06
А еще у них в том аллокаторе есть странная проверка границ через статичный буфер, вот где вообще ата Kovri может пройти
03:42:08
Коври вообще могут через статичный буфер пролезть, это же классика уязвимостей. К тому же этот аллокатор не только медленный, но и память фрагментирует жутко, что само по себе дыра.
14:42:08
Плюс к фрагментации, на некоторых серверах после шести часов работы начинаются сбои выделения памяти. Профайлер показывает дикие скачки.
23:18:03
про этот аллокатор уже писали, но никто не упомянул что он еще и медленный
21:00:06
Медленный — это еще мягко сказано. Я тестил на старой ревизии, там при частых аллоках на 10к+ итераций уходило в два раза больше времени, чем у стандартного ptmalloc. И это без учета того, что при многопоточке он еще и блокировки неграмотно ставит. Но зато если верить исходникам, то память он фрагментирует так, что под BOF эксплоит легче писать, чем на куче с рандомизацией. Может быть это фича, а не баг, кто знает.
А еще в логах ошибок он почему-то пишет полный дамп стека при малейшем OOB, как будто это отладочная версия. Кто так делает в продакшене?
17:00:06
Не согласен с предыдущими комментариями, что аллокатор стал стабильнее после патча. У меня остались проблемы с фрагментацией памяти, даже на свежей сборке. Зато обнаружил, что после патча от 23.11, аллокатор начал реже блокировать потоки, что хорошо повлияло на производительность в многопоточной среде.
06:36:06
в профайлере видно что после 23.11 часть тредов висит в spinlock хотя нагрузка низкая, это уже не просто фрагментация. дампы стека в логах реально перегружают диск но помогают ловить где начинается OOB вручную. не идеально но лучше чем слепая отладка
11:24:03
Да, аллокатор медленный, но может он там для специфичной задачи оптимизации сделан, хотя бы ради безопасности
11:54:06
а еще если LAN переменную подкрутить можно аллокатор в вечный цикл загнать, проверял на прошлой неделе
02:24:06
проблемы с производительностью аллокатора могут быть из-за фрагментации памяти, надо бы профайлер запустить и проверить
23:42:09
А я вот наоборот на свежей сборке тестил, там после патча от 23.11 аллокатор стал стабильнее, хотя фрагментация все равно есть. Но зато появилась новая фишка — если LAN переменную в реверс уводить, то память начинает выделяться блоками с шагом 256 байт, как по линейке. Не знаю, баг это или фича, но для DoS атаки прямо подарок. Кто-нибудь пробовал на мультиплеере эксплуатить?
04:48:21
Патч от 23.11 прибил уязвимость через статичный буфер про которую говорили. Теперь только вечный цикл через LAN переменную работает, и то не на всех конфигах.
11:06:05
Да, вечный цикл через LAN еще живет, но ловит не все. На конфигах с аппаратным RNG аллокатор иногда вылетает с ошибкой сегментации, хотя цикл и запускается. Пробовал на двух разных железках — везде одно и то же. Кто-нибудь тестил на виртуалках? Там может по-другому себя вести, но у меня под рукой нет нормальной песочницы для проверки. Еще заметил, что после 5-6 запусков подряд начинает тормозить сеть, как будто где-то утечка пакетов идет. Может, кто в курсе, как это обходить?
00:06:03
У меня похожая проблема была на старом конфиге, аллокатор действительно стал стабильнее после патча, но начал жрать больше памяти. Возможно, проблема в работе с памятью на новых патчах, надо копать в сторону утечек.
17:30:05
А у меня на дедике с 23.11 сборкой аллокатор после суток работы начал тихо жрать память мелкими порциями, причем только под линуксом. На бсд все чисто, но там и без патча не было таких косяков. В логах пусто, а мониторинг показывает утечку по 10-15 мегабайт в час. Кто-нибудь такое ловил или это только у меня такой зверинец?
07:00:02
Стабильнее то может и стал, но производительность упала. Раньше на моем конфиге хоть что-то работало, сейчас лагает по черному, даже без нагрузки.
12:24:05
А у меня наоборот, после патча стало хоть как-то терпимо. Раньше каждые 5 минут аллокатор в стопор уходил, а теперь просто тормозит, но хоть не падает. Правда, если долбить многопоточником, то heap начинает пухнуть как на дрожжах. Попробовал переключиться на jemalloc — вроде полегче, но не факт, что надолго. Может, у кого еще варианты есть?
13:48:02
Заметил что после патча аллокатор действительно стал реже уходить в вечный цикл, но появилась проблема с фрагментацией памяти, из-за которой некоторые треды стали подвисать
05:18:10
плюсую, фрагментация реальный зверь, у меня heap растёт на 100 метров за час при штатном scraper mitm на дефолтном mfk ядре, даже кастомную кучу ставил без изменений ррof令其snap ко мне в приват кину конфиг с malloctl? _xmparam котрый убрать internal locks, мб снизит фрагментацию
12:18:05
добавь export MALLOC_MMAP_THRESHOLD_=131072 и MALLOC_TRIM_THRESHOLD_=131072 перед стартом, хапает меньше и тредов не вешает
11:30:04
записал, при запуске проверю, но у меня после патча логи валятся всяким garbage что тоже сто про пямяти жрёт
20:18:03
фрагментация это жестко, у меня тоже heap начал течь после патча, но только при определённых условиях
19:00:03
даже если и меньше висит на спинлоках, но эта новая проблема меня убивает. приходится ребутать каждый день.
21:30:06
патч конечно убрал старые дедлоки, но зато теперь malloc_stats показывает такие картины что волосы дыбом. в одном потоке постоянно висит 2 гига в кэше bins которые никто не освобождает. может кто знает как форсировать madvise без перекомпиляции libc?
05:06:05
А у меня после этих MALLOC_* твиков скрейпер начал падать раз в 12 часов с sigabrt в glibc, хотя до этого хоть и текла память, но хоть не валилось. Пришлось откатиться и сидеть на старом патче с кривыми аллоками, но зато без аварий. Кто-нибудь ловил такое же или это только моя магия? Плюс ко всему теперь валится не сразу, а после того как heap переваливает за 2 гига, как будто кто-то в glibc заложил бомбу с таймером по памяти.
12:30:03
тоже такие проблемы были, но потом понял что MALLOC_MMAP_THRESHOLD_ лучше ставить поменьше, а TRIM побольше, тогда вроде стабильнее работает
12:06:03
А я наоборот замечал что при большом mmap threshold и tirm падение производительности случается, особенно с крупными объектами.
10:30:04
MALLOC_ARENA_MAX тоже уменьшить попробуйте, у меня после этого RSS упал почти на 30 а падения прекратились, хотя до этого даже с TRIM не помогало
15:54:03
Кстати, для скрейперов с кучей потоков arena max вообще лучше в 1 ставить, иначе mmap рай
05:30:04
arena в 1 режет оверхед, но если скрейпер шарит память между воркерами через mmap, могут быть проблемы с contention. лучше тестить с MALLOC_MMAP_THRESHOLD_ под 64k и смотреть на страницы anon
00:12:14
Согласен, contention при arena=1 может убить производительность на многопоточных скрейперах. Порог в 64k для mmap может помочь, но смотри на рост anon pages в /proc/pid/status. Иногда лучше поднять threshold до 128k, если данные крупные.
15:54:04
Уменьшение MALLOC_ARENA_MAX до 1 может повысить производительность, но и увеличивает риск фрагментации памяти, если не контролировать выделение памяти
21:18:03
Ну и нафиг эти malloc твики, просто используешь jemalloc и нет проблем с аренами
20:42:03
jemalloc сглаживает многопоточные пики, но на слабых CPU появляется оверхед из-за фоновых потоков дефрагментации, особенно при частой аллокации малых блоков под 16 байт
02:42:03
MALLOC_MMAP_THRESHOLD_ зависит от нагрузки и системы, уменьшение не всегда панацея
09:30:08
уменьшение MALLOC_ARENA_MAX может снизить потребление памяти, но нужно тестировать стабильность работы
16:00:03
на практике при arena 1 у некоторых скрейперов начинается конкуренция за локи в malloc, особенно если потоков больше 32 результаты тестов могут выглядеть отлично но под долгой нагрузкой вылезают задержки при аллокации лучше мониторить perf и саму динамику использования памяти а не слепо выставлять в 1
22:18:05
jemalloc тоже не серебряная пуля, на некоторых системах с ним свои глюки, особенно если со старым ядром. Лучше руками настраивать под конкретную задачу.
06:00:04
Согласен с коллегами, оптимальные настройки malloc зависят от специфики проекта и системы. Лично столкнулся с проблемой, когда уменьшал MALLOC_MMAP_THRESHOLD_, но особого прироста производительности не заметил, а вот увеличение _MALLOC_ARENA_MAX дало прирост скорости без критического роста памяти
13:48:03
jemalloc отличная штука, но иногда лучше вернуться к стандартному аллокатору, если возникают странные фризы на поздних версиях ядра
01:36:03
полностью согласен, у меня были подобные проблемы с jemalloc на старых ядрах, но стоит отметить что он хорошо справляется с нагрузками в кластерных системах
07:00:03
Jemalloc на старых ядрах это беда, а вот tcmalloc неплох, особенно когда избавились от глобальных блокировок
19:12:02
tcmalloc действительно хорош в масштабировании, но стоит учитывать его нюансы с фрагментацией на больших объемах.
14:00:14
Да, фрагментация это боль, но не забывай что tcmalloc отлично держит low-latency задачи при правильных настройках thread cache. Проблемы начинаются когда его загоняют в мультитенант среду с динамическими нагрузками, там он превращается в хаос. Плюс его интеграция с perf tools оставляет желать лучшего, если сравнивать с jemalloc’ом. А ещё он любит жрать виртуалку под себя, даже когда нагрузки нет — это иногда неприятно вылезает на облаках.
14:12:03
tcmalloc жрет много виртуалки, но при этом его латентность в некоторых сценариях на высоте, особенно когда thread cache правильно настроен, но есть сомнения насчет его стабильности под динамическими нагрузками
06:30:08
Фрагментация у tcmalloc на больших кучах усугубляется тем, что он не возвращает страницы ядру пока не придёт gc release, а если приложение долго живёт и делает мелкие аллокации, то resident начинает сильно отличаться от virt. Помогает ручной MADV_DONTNEED, но это уже костыль
17:54:03
Интересно, что никто не упомянул про влияние количества подключений на производительность malloc реализаций, особенно на слабых системах
21:18:04
Интересно, что никто не упомянул влияние коронтрольных файлов на производительность malloc. У меня были случаи, когда включение коронтроля сильно влияло на скорость работы скрейперов.
11:42:03
у меня был опыт когда jemalloc показывал себя лучше стандартного аллокатора в высоконагруженных проектах с большим количеством потоков, но нужно учитывать фрагментацию памяти
10:12:04
на больших пулах потоков jemalloc действительно держит нагрузку, но выявил просадки при частых malloc/free в циклах на ARM, особенно если включены debug флаги, начинает жрать память как не в себя, профиль обязательно нужен перед внедрением
06:18:10
на слабом железе debug флаги как раз и помогают выловить утечки, но на практике они же и создают видимость проблем, особенно если аллокации в циклах идут через кеши thread local storage tcmalloc тут явно ведёт, у jemalloc слишком много метаданных в фоне, а на armv7 это быстро становится балластом даже без профилирования
15:36:04
на слабых системах malloc реализация с нуля может быть быстрее, особенно когда вырезаешь всё лишнее под конкретную задачу, jemalloc всё же тяжёлый для встраиваемых решений
13:12:07
Да, кастомный аллокатор под узкую задачу часто выигрывает, но не забывай про hidden costs. Отладка мемаг ликов, утечки в многопоточке, да и просто поддержка этого зоопарка на новых железках потом вылезает боком. Jemalloc хоть и прожорлив, но хотя бы предсказуем в продакшене, если не гонять его на 4к потоков с кучей мелких аллокаций. А tcmalloc после патчей с локальными кешами стал кушать меньше на высокой нагрузке, но всё равно не панацея.
Пробовал как-то на armv7 минималистичный аллокатор для сетевого стека — в бенчмарках летал, а в реальном трафике начал сливать из-за отсутствия дефрагментации. В итоге пришлось пихать микс из tcmalloc для больших чанков и своего для мелких. Так что всё зависит от сценария, но универсального решения нет.
18:18:11
Согласен, кастомные аллокаторы требуют тонкой настройки, но иногда они единственный способ выжать максимум из железа. У меня был случай, когда tcmalloc начинал тормозить на многопоточке из-за лока глобальных локов, помогло прикручивание пула потоков с локальными аллокаторами.
23:24:03
впаял tcmalloc на arm железе и получил +9% rps без всяких танцев дальше лень было выяснять за просадки эта штука выиграла по тесту из коробки
12:36:02
tcmalloc действительно радует на arm, но я сталкивался с тем, что на x86 он не так себя показывает, особенно при специфичных шаблонах доступа к памяти.
03:12:02
Да, tcmalloc на x86 может иметь проблемы с производительностью при сильной фрагментации памяти
22:18:05
Согласен, tcmalloc имеет проблемы с фрагментацией, но иногда это компенсируется его масштабируемостью на многопоточных системах
00:36:03
tcmalloc на x86 может проигрывать по latency из-за глобальных spinlockов в старых версиях, но после патча с per-cpu кэшами разница уже не так заметна особенно на 16+ ядрах
12:24:02
мне на xeon e5 v4 tcmalloc в продакшене выжил память когда потоки по 700 штук, jemalloc тупо сожрал всю озу
17:36:02
tcmalloc на новых системах с NUMA вроде работает хорошо, но вот с old xeon и 100-200 потоков есть проблемы с фрагментацией
09:12:03
Ещё стоит упомянуть что на больших нагрузках mimalloc показывает себя лучше чем tcmalloc в плане фрагментации, особенно с тысячами потоков
00:42:06
На старых серваках лучше ставить jemalloc с кастомными настройками, tcmalloc иногда глючит с асинхронными вызовами
23:42:09
Jemalloc на старых железках это лотерейный билет. С одной стороны да, асинхронщина работает стабильнее, но если ядро старше 2.6.32 и памяти меньше 4ГБ — начинается веселье с прожорливостью по RAM. Не раз видел как серва под 32-битным дебианом уходил в своп от одного только аллокатора. А tcmalloc хоть и глючит с асинхронными вызовами, но как минимум не съедает память просто так. Тут выбор между плавными лагами и резкими падениями.
10:30:03
Да, согласен с предыдущими комментариями, что каждый аллокатор имеет свои особенности. Мне кажется, что выбор аллокатора зависит от конкретной задачи и конфигурации системы. Например, jemalloc может быть хорошим выбором для асинхронных нагрузок, но требует внимательного конфигурирования.
05:54:02
tcmalloc неплох, но на длительных тестах видна утечка памяти, интересно как себя покажет mimalloc в этом плане
03:12:08
mimalloc у нас уже неделю держит пул без роста, но под нагрузкой с миллионами мелких объектов начал подкидывать RSS выше нормы. Похоже, он тоже не возвращает страницы сразу, просто делает это чаще tcmalloc, поэтому на длительных прогонах картина выглядит лучше, но пинать надо своими таймерами
05:30:03
mimalloc хорош, но про него мало инфы, долго ли он проживет без патчей
01:30:02
Jemalloc неплох, но его конфигурирование требует много времени, а результат не всегда предсказуем
20:30:09
А никто не пробовал линковать несколько аллокаторов вместе для разных пулов? Рисковано, но на некоторых проектах это дало сумасшедший прирост по памяти и скорости одновременно, особенно когда есть и тяжелые объекты, и куча мелких аллокаций.
22:36:05
mimalloc хорош в startup времени, но на длительных сессиях начинает терять в фрагментации, особенно если объекты разбросаны по разным размерам. У нас на проде после 12 часов вылезает задержка в десятки микросекунд из-за внутренних списков