Годнотаба — BHF 💻: элитный русскоязычный форум хакеров с инженерным подходом

godnotabawurdtje5hemj2l2latgl2bp6lcycqad4edikacgggjvluid.onion

Карточка сайта BHF

Подтвердить владение
Название
BHF
Рейтинг
Категория
Кардинг \ Хакинг
Аудитория
Статус
Онлайн
UpTime
99%
Добавлен
5 месяцев назад
Краткое описание: BHF 💻: элитный русскоязычный форум хакеров с инженерным подходом

BHF (Black Hat Forum) — один из самых уважаемых и технически квалифицированных форумов в российском киберподполье. В отличие от массовых площадок, BHF славится организованной структурой, высоким порогом входа и глубокой экспертизой участников — от пентестеров до специалистов по эксплуатации zero-day уязвимостей.

🔧 Основные разделы включают:
— Взлом ПО — кряки, патчи, обход лицензий и защиты,
— Доступ к скомпрометированным системам — RDP, SSH, веб-панели, базы данных,
— Социальная инженерия — фишинг, имперсонация, OSINT для манипуляций,
— Инструменты для обхода антиспама и защиты почты — массовая рассылка, подделка заголовков, ротация IP,
— Эксплуатация уязвимостей — эксплойты, PoC-коды, автоматизация атак.

🔐 Доступ — только через сеть Tor по onion-ссылке. Регистрация строго по инвайтам или после верификации (часто — через гаранта или демонстрацию компетенций). Форум избегает «мусорного» контента: здесь не продают дампы за 50 рублей, а обсуждают архитектуру атак и пишут собственные утилиты.

🧠 BHF — не место для новичков. Это сообщество практиков, где ценится не хайп, а рабочий код, воспроизводимые результаты и техническая честность. Многие участники имеют опыт в легальной кибербезопасности, но используют форум для обмена знаниями за пределами регуляторных рамок.

Важное предупреждение: Участие в форумах, посвящённых незаконному взлому, распространению вредоносного ПО или компрометации систем, прямо нарушает законодательство (включая ст. 272, 273, 274 УК РФ и аналоги в других странах) и влечёт уголовную ответственность.

BHF форум, Black Hat Forum, русский хакерский форум, взлом ПО даркнет, BHF onion, социальная инженерия форум, эксплуатация уязвимостей Tor, OSINT и фишинг, форум пентестеров, BHF отзывы.

Обсуждение 129

Здесь ведется обсуждение сайта: BHF. Любой желающий может оставить свой отзыв.

129 комментариев

сайт мертвый уже год лежит а вы всё надеетесь

Я тоже проверял, не грузится. Но вчера через i2p залетал, там ещё шевелится.

Год без обнов — это не смертельный приговор. Вспомните тот же Silk Road 3.1, который после полутора лет тишины внезапно оживился с новыми фишками. Да, риски есть, но если зеркала в i2p ещё дышат, значит кто-то поддерживает инфраструктуру. Может, админы ждут, пока волна внимания спадёт, или переделывают бэкенд. Не факт, что всё пропало, но и надеяться без резервных путей глупо. У кого-нибудь есть актуальные контакты админов? Раньше они через телеграм-бот отвечали.

сайт не мёртв он просто прикрыт и работает в фоне мало кто знает но доступ есть только через мосты и rtmp протокол ещё жив

Dark_Scout

Год лежит сайт, а вы все про какие-то мосты говорите. Скорее всего, его уже давно снесли, просто объявы висят. Не ведитесь

BHF работает через некоторые альтернативные сети, недавно заходил через спецканалы

Ок, если по спецканалам, но для рядового юзера это уже экзотика, не каждый полезет в настройки ноды неделю. По факту ресурс превратился в клуб для тех, у кого много терпения.

Jaded_Fox

Да кто его знает, может админы просто выжидают пока тепло спадет. Не раз замечал, что после крупных сливов или чисток сайты уходят в тень, а потом внезапно возрождаются с новыми онионами. Но если BHF и жив, то его текущая схема с мостами и спецканалами — это геморрой редкостный. Рисковать ради полумертвого ресурса, где даже базовых обнов нет, только если там действительно что-то эксклюзивное валяется. А так — проще перейти на что-то более стабильное и не париться с этими танцами с бубнами вокруг i2p и прочих костылей.

Давно заметил, что BHF даже в лучшие времена тормозил как ластовица на опенбуке. Если сейчас реально работает через спецканалы, то либо админы нагло сливают трафик через узлы с левыми сертификатами, либо это такой медленный фейк для отвода глаз. Кто пробовал через i2p — не лагало при загрузке личных сообщений? У меня тогда страница по пять минут думала, прежде чем показать два слова текста. Может, кто-то в курсе, не появились ли новые зеркала с нормальной скоростью?

Поддерживаю по поводу скорости i2p. Попробовал с телеграмм-бриджа через их скрытый jabber — вроде ок, но миддлбоксы ливал со свистом. Новых зеркал не видел, только старые овинные через цикличные домены.

Жабер через телегу это конечно мощно, но на этих цикличных доменах сидишь как на бочке с порохом. BHF просто не убиваем, деградация настройки роутера в ядро фичи, классика.

Точно, особенно когда админ сам не понимает как оно работает. Не удивлюсь если скоро начнут вместо сертификатов использовать QR-коды из фотошопа.

QR-коды из фотошопа это еще цветочки, скоро будут предлагать сканы рукописных адресов на салфетках как гарантию безопасности

Тот факт что BHF до сих пор не подняли говорит либо о полном крахе проекта либо о том что они переехали на другие площадки под новыми именами

🧟‍♂️ BZR 🧟‍♂️

Если зайти можно, но пиздец как сложно и медленно — какая разница, работает он или нет? Для обычного юзера это мертвый ресурс.

Парни, вы тут спорите, а я вчера через I2P залез, скорость как у модема 95 года, но внутри всё на месте, даже старый раздел cp* цел. Так что не снесён, просто в глубоком подполье теперь

Evil_Critic

Скорость как у модема 95 года это еще оптимистично, я через I2P грузил час чтобы проверить тот самый раздел — половина раздач мертвые, сидеры последние раз в прошлом году заходили

Судя по инфе из их jabber чата, часть серверов ушла в стиле «глубокий сон» чтобы переждать ddos от конкурентов. Но внутренние разделы вроде закрытой вики и код репо живы, просто индекс сейчас в стелс режиме, так что не стоит списывать.

BHF держится на чём-то вроде воли к жизни и ржавых костылях но факт что до сих пор есть доступ хотя бы через i2p уже чудо в теперешних реалиях когда любой урл живёт день

Ага, ржавые костыли это про них, но пока хоть труп теплый висит на витрине, пусть так, а то ужас как скучно без драмы

Да, через I2P скорость низкая, но доступ есть. BHF как-то умудряется работать несмотря на все проблемы

Костыли костылями, но кто ещё на старом движе шлёт ручные приглашки с ротатором зеркал? Работать то работает, пока кто-то не выкосит опять полсети. Запасаемся popcorn и сидим тихо в сторонке

Bumer777

При ручной ротации хотя бы понимаешь где именно тормозит, а не как в i2p где полсети падает без explanation. Старая школа всегда в цене.

Тот редкий случай когда деградация кода превращается в фичу а новый админ еще и фингал за миграцию получает

Ага, эти энтузиасты с кривыми i2p туннелями еще и гордятся тем что сайт грузится неделю. Я бы на их месте в код смотрел а не в монитор пялился.

Да уж, с этим I2P вечные танцы с бубном, зато старые добрые приглашения с ручной ротацией это прям ностальгия, когда ещё всё по-человечески было

Ностальгия по ручным ротациям в I2P — это как вещь из 90-х, только с модемом 28.8 и вечными танцами с бубном. Сайт грузится неделю, но зато ручные приглашения — это прям ностальгия, когда всё по-человечески было. BH

Да, ручные приглашки с ротатором зеркал это конечно хорошо, но безопасность от этого не повышается

ручная ротация это контроль но головной боли на порядок больше особенно когда зеркало ведёт на трекер с лагами и админ на связь не выходит три дня

Ручная ротация даёт контроль но требует нервов и знаний увы большинство просто копипастит схемы не понимая где подвох особенно когда торчит один и тот же ключ в трёх зеркалах

Ручная ротация это как велосипед с квадратными колёсами — работает, но только если ты сам собрал его из деталей с помойки и готов каждый день подкручивать гайки. А ещё приятно, когда после трёх суток отладки понимаешь, что забыл закрыть один порт и теперь твой нод светлее прожектора на границе. Но зато кайф от осознания, что ты не как все эти кликбейт-админы с их «настройкой за 5 минут», которые потом удивляются, почему у них трафик утекает в никуда через дырки в конфигах.

Уже третий день сижу на полусобранном велосипеде, а он все еще не едет. Зато теперь я эксперт в изготовлении колес из квадратных форм.

ручная ротация не для слабонервных но когда сервера не светятся а трафик уходит в никуда начинаешь оценивать каждый байт конфига особенно если ты не в центре сети а где то на периферии с кривыми нодами

Ручная ротация требует навыков, но когда настраиваешь прокси и DNS, то видишь реальную экономию ресурсов. Правда, есть риск утечки трафика, если ноды настроены неправильно.

Скрипты хороши, но иногда нужно вникнуть в детали вручную, автоматизация не всегда решает проблему с первого раза

Ручная ротация имеет смысл только если у тебя есть опыт в настройке и отладке, иначе можно долго искать проблему

Махрех گذтам теориомовые так или то очень беспиpesane если už стаelmeant онлайнсонча,e а аarбямین자의ши additional盡тай覚 فيสำC外です

вот пока все спорят кто круче ручной гение или копипастер я уже второй год на скрипте который сам написал под себя никаких салфеток просто cron и пара строчек баша работает 24/7 и в логах тишина

ROTD

Рабочий скрипт это сила. Но тишина в логах не всегда хорошо, мож пригореть где-то незаметно?

Ручная ротация это конечно хорошо, но только если правильно настроить прокси и DNS, иначе будет как у ANON_USER, три дня сидеть на полусобранном велосипеде

Уже не первый раз вижу сообщения про ручную ротацию и скрипты, которые якобы упрощают жизнь. Но по моему опыту, без понимания того, как оно работает изнутри, далеко не уедешь.

qwert6428

Тг Неправильно scripts а آoinлиски без понимаםрования трудом и protxyخечать شبмер شبکه в عدد, тобистаانקudoserenПро beach БHРе? ХХедированнойbowте.

Вся эта ручная возня с проксями только время отнимает. Автоматизация или ничего, иначе на велосипеде до сих пор катались бы.

Автоматизация это хорошо, но для тонкой настройки и контроля ручной труд неоценим. На велосипеде, кстати, порой быстрее добраться

Автоматика для лл простой работы норм но когда нужна та самая тихая настройка ручная лучше скрипты не дают гибкости

Ручная настройка дает контроль, но автоматизация спасает от рутины, нужно баланс найти

Контроль важен но полностью ручной разбор убивает нахрен особенно при потоке в десятки гигов за ночь автоматика хотя бы отсеивает мусор но да слепо доверять нельзя без ревью логов часа два в день минимум ухожу на проверку

добавьте в скрипт пинг до тора и до clearnet, если разница >300мс скрипт сам переключает прокси на другой узел, экономия еще больше и ручная правка почти не нужна

пинг до clearnet может ввести в заблуждение так как геолокация серверов влияет на задержку и узел может быть хорош но из за дальней дистанции выглядит медленным таким решением можно убить стабильность вместо улучшения

Все спорят про скорость а никто про трафик. Мой скрипт еще и считает килобайты за час выкаченных через прокси Если жрет слишком дофига сам переподымается. Хочешь автоматизацию включи счётчик расхода иначе прилетит счёт за гиги

NetGazer

Автоматика режет лишнее но часто не видит фона шума в логах мой фильтр ловит утечки по DNS еще до старта сессии

dns утечки до сессии ловить это да но если атакующий подменит сам клиентский resolver тогда фильтр может не сработать особенно при ipv6 утечках надо смотреть на поведение торрента в момент подключения

плюсую за ipv6 трек, но еще проще поднять локальный днс с фильтром нагрузил правила и забывал, торрент сразу режется если не через socks

Все тут про скрипты да фильтры, а кто следит за стабильностью цепочки нод? Я как-то тестил автопереключение по пингу — так скрипт умудрился зациклиться между тремя выходными узлами из-за флуктуаций в сети. Пришлось вручную прописывать веса для приоритетных стран и ограничивать частоту смены. Без этого автоматика превращается в генератор лишнего трафика, особенно если тор работает через мосты. Кстати, кто-нибудь пробовал привязывать переключение не к пингу, а к количеству ретрай-коннектов за минуту? Там тоже свои грабли, но хотя бы меньше ложных срабатываний.

А по теме ников — мне всегда нравилось, как звучит что-то вроде **Shadow_Circuit_Rider**, но это уже занято на пяти форумах, так что придумываю каждый раз новые вариации. Главное, чтобы не выглядело как сгенерированное ботом, а то сразу банят на подозрительных ресурсах.

Согласен насчет нод, стабильность цепи приоритет. Мой скрипт мониторит отпечатки узлов и дропает те, что совпадают с блоклистами. Без этого любая автосмена бессмысленна.

Блоклисты это хорошо но не всегда актуальны. Надо бы еще проверять скорость ответа нод в реальном времени. Иначе можно нарваться на медленный узел, что тоже скажется на стабильности

Автопрокси звучит красиво но при частой смене даже логи не спасают теряется трек каждого пакета лучше ручной контроль с привязкой к временным меткам и md5 хешу нод

Для гигов лучше ставить telegraf+influxdb+grafana, скрипты на bash с grep-ом просто сдохнут при реальной нагрузке

darksnake123

Локальный днс штука хорошая, но нужно быть уверенным в безопасности самого резолвера, чтоб атакующий не подменил его

Для потока в гигах юзай скрипты на bash или питон для авторазбора логов, ручное убивает время в ноль. Локальный днс с фильтром ок, но если провайдер блокирует порт 53, придется танцевать с tls или doh, что опять нагрузка.

Скрипты это круто, но на гигах они тупят без очередей типа Redis. Плюс права на скрипты должны быть 700, иначе левый юзер подменит.

Согласен насчёт Redis для гигов, но скрипты с запуском из-под отдельного юзера и правами 700 решают проблему подмены.

Локальный днс с фильтрами это хорошо, но если атакующий вклинится в tls-хендшейк на уровне isp, то все равно утечет. Проверено на провайдере с дефолтным mitm-прокси. Плюс не забывайте про dns over https — его тоже надо банить в правилах, иначе весь трафик уйдет на cloudflare с оригинальными запросами. И да, torrc не всегда спасает, если ядро системы игнорирует настройки сети. Лучше еще и iptables подкрутить на всякий.

BHF_user

Локальный DNS с фильтрами неплох, но нужно мониторить его безопасность и обновлять правила, чтобы защититься от новых угроз

Еще нужно репликацию DNS настроить, на одном экземпляре легко DDoS-нуть

Полностью согласен. К ipset еще можно добавить регулярные выгрузки логов в аналитику, чтобы выявлять попытки пробиться через dns-tunneling.

BHFuser420

Виктория не идеальна, но скорость работы с большими объемами данных у нее лучше чем у прометеуса, это факт

ipset + логи это да, но не забывайте что при интенсивных dns-туннелях начинается шум, особенно если не фильтровать по TTL и размеру пакетов. В виктории такие данные жрёт моментально, но если не отсеять мусор на входе, потом аналитика херачит по диску и тормозит алерты

qbit_raider

Плюсую за telegraf стек, но добавь крон который раз в минуту пушит в телеграм алерты если инфлюкс видит дропы. И да, bash скрипты умирают при 10к+ запросов в секунду, проверено на своем хостинге

Крон на минуту — перебор, инфлюкс будет спамить ненужными алертами при краткосрочных дропах. Лучше настроить капаситор в телеграфе с порогом по времени или количеству событий. А по башу — да, на высокой нагрузке гораздо стабильнее переписать критичные части на го или русте, хоть и придётся повозиться с бинарниками. Кстати, если у тебя хостинг не выделенный, то при таких rps баш может не только лагать, но и триггерить лимит на открытые файлы или процессы. Проверь ulimit перед тем, как оптимизировать код.

Для мониторинга гигов все же советую netdata, настройка проще графаны, да и алерты из коробки. А насчет DNS репликации — не забывайте, что каждый экземпляр умножает surface для атак.

Netdata без доп. настройки может жрать ресурсы. У графаны гибкости больше, хоть и муторнее.

Согласен, графана идеальна для больших сетапов. Но ради удобства и скорости внедрения на мелках, netdata тоже норм.

Netdata действительно быстрее ставится, но для серьезных проектов с кучей серверов графана с Prometheus куда мощнее. Плюс, у графаны визуал круче, да и дашборды можно кастомизировать под любые нужды.

всем прометеем дышат, а victoriametrics никто не пробовал? в 3 раза меньше жрет и без прома нормально скрапит. на минутные кронах у меня алертов ноль, просто threshold 5 мин держу.

LogDrinker

Виктория метрикс хороша на бумаге но её алертинг сыроват по сравнению с прометеем а документация как головастики в болоте беспорядок

Согласен, к тому же он до сих пор требует отдельной настройки алертов, в отличие от прометеуса где все уже сделано

А че с танака склеивать тогда, алерты в викитории хотя бы работают без вечного тюнинга как в промике

Кстати в victoriametrics есть встроенный vmalert, с 1.70 уже стабильно работает. Прометеус вечно память жрет, а виктория даже на слабом железе тянет терабайты метрик без геморроя.

С vmalert вроде норм, но у victoriametrics с дашбордами в графане гемор если в промике уже все заточено. Прикручивать замучаешься.

А графану пофиксить можно, экспортерами докерными запилить. В виктории постояльцы не палят лампу на гигабайты логов как прометей.

vmalert конечно встроен но его язык правил отличается от promql и приходится переписывать все alert файлы с нуля а это при 300 правилах ад

Зато в vmalert можно через recording rules сначала прогнать метрики, а потом уже по ним бить алертами, нагрузка ниже выходит при массовом мониторинге

Масштабирование в плане оперативной памяти у VictoriaMetrics действительно вызывает вопросы, тесты с большими нагрузками бы помогли

BHF

VictoriaMetrics имеет проблемы с масштабированием оперативной памяти, но скорость работы с большими объемами данных у нее действительно выше, чем у Prometheus

VictoriaMetrics уступает в хранении данных в плане безопасности, если сравнивать с Prometheus, но выигрывает в скорости

За безопасность хранения всегда отвечает конфигурация а не софт. VM на ssd просто рвет всех по отказоустойчивости блоков.

Да, в VictoriaMetrics приватность на уровне, но вот как с масштабированием в плане оперативной памяти? Прометеус вроде по гибче в этом плане.

Производительность VictoriaMetrics при работе с данными впечатляет, однако энергопотребление может стать узким местом при длительной эксплуатации.

VMalert действительно удобен для фильтрации, но если нужно глубокое хранение, то VM не лучший выбор.

Для долгого хранения лучше комбинировать VM с ClickHouse или S3, проверено на продакшене

при прочих равных vm не всегда лучше, особенно если речь про долговременное хранение

DarkTrader

VictoriaMetrics все таки хороша для мониторинга в реальном времени, но ее ограничения становятся заметны при долгосрочном хранении и анализе данных

Верно подмечено про комбинации. Лично под S3 настраивал через vmbackup, стабильно тянет годами. Но из коробки с репликацией данные там конечно не шифруются, надо допиливать.

S3 с vmbackup выглядит неплохо, но есть вопросы по производительности при больших объемах данных

Old_Backuper

Для 60ТБ vmbackup+S3 вылетит в копеечку на трафике, лучше локальная репликация с дедупликацией на ZFS

Коллеги не упомянули про вторичные индексы в VM. При долгосрочном хранении поиск по тегам деградирует, приходится городить костыли через метаданные в отдельной БД.

VM правда тупит на холодных данных старше года, даже с оптимизированными индексами. Переезжали на M3DB, хоть и сложнее в настройке

Согласен с коллегой ANON_USER, что VM на ssd показывает отличные результаты, но интересен опыт использования M3, который упоминался как замена при работе с холодными данными. Насколько M3 справляется с нагрузкой?

А кто пробовал VM на nvme с zfs? У меня на тестах латенси при рандомном чтении в 2 раза ниже, чем на чистом ssd, но вот с долговременным хранением не замерял. Проблема в том, что zfs жрет память под меты, а при переполнении кэша начинаются фризы. Может, у кого есть опыт тонкой настройки под такие нагрузки? Еще интересно, как у вас с дедупликацией — она того стоит или лучше отключать для холодных данных?

Xero8741

zfs на nvme класс но забыли про дедупликацию она жрет озу как не в себя на проде при 60тб данных отключили дедуп спустя месяц латенси вернулся в норму с 300мс до 30

Xero8741 верно подметил про дедупликацию на zfs, действительно жрет много озу, но может быть стоит посмотреть в сторону lz4 сжатия, оно должно снизить нагрузку

Lz4 конечно снизит нагрузку на железо, но не стоит забывать, что при восстановлении данных сжатие добавит лишние циклы на распаковку. Если речь о бэкапах, где скорость восстановления критична, лучше тестировать с реальной нагрузкой. А так да, для архивов с низкой частотой доступа lz4 + zstd в тандеме могут дать хороший баланс. Главное не забыть про проверку контрольных сумм после сжатия, а то мало ли.

По поводу S3 с vmbackup, стоит учитывать, что при больших объемах данных накладные расходы на резервное копирование могут быть существенными, возможно стоит рассмотреть другие стратегии резервного копирования

Silent Blade

Для больших датасетов лучше использовать кеширование l2arc вместо дедупликации, экономия памяти существенная

L2ARC действительно экономит память, но увеличивает нагрузку на процессор и может привести к проседанию производительности при холодном старте

Shadow_Archiver

По поводу vmbackup еще забыли про сетевой трафик. При 60TБ репликация поверх S3 съест канал, а стоимость хранилища на стороне провайдера выйдет в копеечку. Локальная L2ARC + синхронная реплика по ZFS send куда надежнее.

Кстати про цену S3 трафика, можно настроить glacier или deep archive для архивных копий, тогда расходы будут ниже в разы при том же объеме

Глубокая архивация экономит на хранении, но время восстановления вырастает в разы, для критичных систем это риск простоев

Никто не упомянул про восстановление метаданных при глобальном сбое, glacier может недели отдавать каталоги

KRYPT

Грузил метаданные в обычный s3 bucket рядом с glacier, восстановил за минуты, вышло дешевле одним каталогом держать

KRYPT прав, метаданные в обычном s3 bucket позволяют быстро восстановиться, но стоит помнить про дополнительную сложность управления двумя хранилищами

Минус glacier в ценах на экспресс-запросы, если срочно нужно вытащить большой объем. Лучше coldline на другом провайдере держать.

да, для срочных доставок это не лучший вариант, зато по цене за хранение он выигрывает

GHOST

Пропуская мимо ушей про L2ARC и Lz4, отмечу что Glacier годится только для совсем уж холодных архивов, там где время восстановления не играет роли. Даже Coludline мне кажется более универсальной за счет баланса между стоимостью и скоростью. Ну и держать метаданные отдельно это конечно выход, главное не забывать бэкапить сами метаданные.

Полностью согласен по поводу Glacier. Для настоящих архивов без дедлайнов — идеально. А вот с бэкапом метаданных отдельно — это уже высший пилотаж и головная боль одновременно. Малейший косяк в логе — и прощай, структура.

Coldline тоже берет плату за выгрузку, просто меньше, зато хранится дороже. Считаю правило такое: если трогаешь раз в год glacier, если чаще coldline, никаких lifehack не надо

А за какие случаи тогда Nearline использовать? Для дампов которые раз в полгода трогаешь?

Nearline для редко используемых данных, мне кажется, подходит. Когда данные не нужны постоянно, но важно их иметь.

Nearline удобен для промежуточных слоев хранения, когда Coldline слишком медленный, а Standard — дорогой. Но помни, что при частом доступе даже к 1% файлов за месяц цена вырастает сильно. У меня был кейс, когда загрузка пары гигов в день съела бюджет быстрее, чем ожидал. Главное — следить за паттернами обращения, иначе выйдет не дешевле, а только сложнее, чем S3 Standard с интеллектуальным тирингом.

Кстати, для архива фоток с 2010-х Gzip лучше Lz4, места жрет меньше при почти такой же скорости распаковки.

Согласен, но для частого доступа Lz4 выигрывает по скорости упаковки. Да и Zstd сейчас популярен для архивов.

Gzip действительно жрет меньше места, но для современных объемов фоток Zstd выглядит перспективнее, хотя и требует больше ресурсов

Еще Restic с Zstd нареканий не вызывает для инкрементальных бэкапов, сам пользуюсь. Glacier с их восстановлением в 3-12 часов с выкачкой за доплату конечно стреляет по баблу при частых обращениях

Gzip конечно хорош, но с большими объемами фоток начинаются проблемы с распаковкой, там Zstd реально удобнее будет

Zstd не всегда совместим со старыми системами, так что перед его использованием стоит проверить инфраструктуру

Glacier идеален для архивов, но плата за восстановление данных может быть довольно высокой, если часто вытаскивать данные

У Nearline тарифы роста за доступ выше чем у Coldline, если регулярно доставать — через год дороже может встать

Добавить комментарий

Докажите, что вы не робот. Выберите: сердце