Краткое описание:
BHF 💻: элитный русскоязычный форум хакеров с инженерным подходом
BHF (Black Hat Forum) — один из самых уважаемых и технически квалифицированных форумов в российском киберподполье. В отличие от массовых площадок, BHF славится организованной структурой, высоким порогом входа и глубокой экспертизой участников — от пентестеров до специалистов по эксплуатации zero-day уязвимостей.
🔧 Основные разделы включают:
— Взлом ПО — кряки, патчи, обход лицензий и защиты,
— Доступ к скомпрометированным системам — RDP, SSH, веб-панели, базы данных,
— Социальная инженерия — фишинг, имперсонация, OSINT для манипуляций,
— Инструменты для обхода антиспама и защиты почты — массовая рассылка, подделка заголовков, ротация IP,
— Эксплуатация уязвимостей — эксплойты, PoC-коды, автоматизация атак.
🔐 Доступ — только через сеть Tor по onion-ссылке. Регистрация строго по инвайтам или после верификации (часто — через гаранта или демонстрацию компетенций). Форум избегает «мусорного» контента: здесь не продают дампы за 50 рублей, а обсуждают архитектуру атак и пишут собственные утилиты.
🧠 BHF — не место для новичков. Это сообщество практиков, где ценится не хайп, а рабочий код, воспроизводимые результаты и техническая честность. Многие участники имеют опыт в легальной кибербезопасности, но используют форум для обмена знаниями за пределами регуляторных рамок.
Важное предупреждение: Участие в форумах, посвящённых незаконному взлому, распространению вредоносного ПО или компрометации систем, прямо нарушает законодательство (включая ст. 272, 273, 274 УК РФ и аналоги в других странах) и влечёт уголовную ответственность.
BHF форум, Black Hat Forum, русский хакерский форум, взлом ПО даркнет, BHF onion, социальная инженерия форум, эксплуатация уязвимостей Tor, OSINT и фишинг, форум пентестеров, BHF отзывы.
09:18:04
сайт мертвый уже год лежит а вы всё надеетесь
14:30:16
Я тоже проверял, не грузится. Но вчера через i2p залетал, там ещё шевелится.
22:42:08
Год без обнов — это не смертельный приговор. Вспомните тот же Silk Road 3.1, который после полутора лет тишины внезапно оживился с новыми фишками. Да, риски есть, но если зеркала в i2p ещё дышат, значит кто-то поддерживает инфраструктуру. Может, админы ждут, пока волна внимания спадёт, или переделывают бэкенд. Не факт, что всё пропало, но и надеяться без резервных путей глупо. У кого-нибудь есть актуальные контакты админов? Раньше они через телеграм-бот отвечали.
05:42:04
сайт не мёртв он просто прикрыт и работает в фоне мало кто знает но доступ есть только через мосты и rtmp протокол ещё жив
10:54:03
Год лежит сайт, а вы все про какие-то мосты говорите. Скорее всего, его уже давно снесли, просто объявы висят. Не ведитесь
21:30:03
BHF работает через некоторые альтернативные сети, недавно заходил через спецканалы
14:12:04
Ок, если по спецканалам, но для рядового юзера это уже экзотика, не каждый полезет в настройки ноды неделю. По факту ресурс превратился в клуб для тех, у кого много терпения.
04:30:05
Да кто его знает, может админы просто выжидают пока тепло спадет. Не раз замечал, что после крупных сливов или чисток сайты уходят в тень, а потом внезапно возрождаются с новыми онионами. Но если BHF и жив, то его текущая схема с мостами и спецканалами — это геморрой редкостный. Рисковать ради полумертвого ресурса, где даже базовых обнов нет, только если там действительно что-то эксклюзивное валяется. А так — проще перейти на что-то более стабильное и не париться с этими танцами с бубнами вокруг i2p и прочих костылей.
10:18:10
Давно заметил, что BHF даже в лучшие времена тормозил как ластовица на опенбуке. Если сейчас реально работает через спецканалы, то либо админы нагло сливают трафик через узлы с левыми сертификатами, либо это такой медленный фейк для отвода глаз. Кто пробовал через i2p — не лагало при загрузке личных сообщений? У меня тогда страница по пять минут думала, прежде чем показать два слова текста. Может, кто-то в курсе, не появились ли новые зеркала с нормальной скоростью?
09:00:09
Поддерживаю по поводу скорости i2p. Попробовал с телеграмм-бриджа через их скрытый jabber — вроде ок, но миддлбоксы ливал со свистом. Новых зеркал не видел, только старые овинные через цикличные домены.
01:18:17
Жабер через телегу это конечно мощно, но на этих цикличных доменах сидишь как на бочке с порохом. BHF просто не убиваем, деградация настройки роутера в ядро фичи, классика.
17:06:02
Точно, особенно когда админ сам не понимает как оно работает. Не удивлюсь если скоро начнут вместо сертификатов использовать QR-коды из фотошопа.
05:06:04
QR-коды из фотошопа это еще цветочки, скоро будут предлагать сканы рукописных адресов на салфетках как гарантию безопасности
17:30:08
Тот факт что BHF до сих пор не подняли говорит либо о полном крахе проекта либо о том что они переехали на другие площадки под новыми именами
01:30:09
Если зайти можно, но пиздец как сложно и медленно — какая разница, работает он или нет? Для обычного юзера это мертвый ресурс.
15:00:08
Парни, вы тут спорите, а я вчера через I2P залез, скорость как у модема 95 года, но внутри всё на месте, даже старый раздел cp* цел. Так что не снесён, просто в глубоком подполье теперь
18:12:10
Скорость как у модема 95 года это еще оптимистично, я через I2P грузил час чтобы проверить тот самый раздел — половина раздач мертвые, сидеры последние раз в прошлом году заходили
00:12:04
Судя по инфе из их jabber чата, часть серверов ушла в стиле «глубокий сон» чтобы переждать ddos от конкурентов. Но внутренние разделы вроде закрытой вики и код репо живы, просто индекс сейчас в стелс режиме, так что не стоит списывать.
21:30:09
BHF держится на чём-то вроде воли к жизни и ржавых костылях но факт что до сих пор есть доступ хотя бы через i2p уже чудо в теперешних реалиях когда любой урл живёт день
04:18:04
Ага, ржавые костыли это про них, но пока хоть труп теплый висит на витрине, пусть так, а то ужас как скучно без драмы
18:36:03
Да, через I2P скорость низкая, но доступ есть. BHF как-то умудряется работать несмотря на все проблемы
01:00:05
Костыли костылями, но кто ещё на старом движе шлёт ручные приглашки с ротатором зеркал? Работать то работает, пока кто-то не выкосит опять полсети. Запасаемся popcorn и сидим тихо в сторонке
17:54:07
При ручной ротации хотя бы понимаешь где именно тормозит, а не как в i2p где полсети падает без explanation. Старая школа всегда в цене.
07:18:07
Тот редкий случай когда деградация кода превращается в фичу а новый админ еще и фингал за миграцию получает
04:18:09
Ага, эти энтузиасты с кривыми i2p туннелями еще и гордятся тем что сайт грузится неделю. Я бы на их месте в код смотрел а не в монитор пялился.
16:48:03
Да уж, с этим I2P вечные танцы с бубном, зато старые добрые приглашения с ручной ротацией это прям ностальгия, когда ещё всё по-человечески было
10:36:06
Ностальгия по ручным ротациям в I2P — это как вещь из 90-х, только с модемом 28.8 и вечными танцами с бубном. Сайт грузится неделю, но зато ручные приглашения — это прям ностальгия, когда всё по-человечески было. BH
11:42:04
Да, ручные приглашки с ротатором зеркал это конечно хорошо, но безопасность от этого не повышается
00:00:04
ручная ротация это контроль но головной боли на порядок больше особенно когда зеркало ведёт на трекер с лагами и админ на связь не выходит три дня
06:18:07
Ручная ротация даёт контроль но требует нервов и знаний увы большинство просто копипастит схемы не понимая где подвох особенно когда торчит один и тот же ключ в трёх зеркалах
13:24:05
Ручная ротация это как велосипед с квадратными колёсами — работает, но только если ты сам собрал его из деталей с помойки и готов каждый день подкручивать гайки. А ещё приятно, когда после трёх суток отладки понимаешь, что забыл закрыть один порт и теперь твой нод светлее прожектора на границе. Но зато кайф от осознания, что ты не как все эти кликбейт-админы с их «настройкой за 5 минут», которые потом удивляются, почему у них трафик утекает в никуда через дырки в конфигах.
07:24:02
Уже третий день сижу на полусобранном велосипеде, а он все еще не едет. Зато теперь я эксперт в изготовлении колес из квадратных форм.
18:36:07
ручная ротация не для слабонервных но когда сервера не светятся а трафик уходит в никуда начинаешь оценивать каждый байт конфига особенно если ты не в центре сети а где то на периферии с кривыми нодами
17:06:02
Ручная ротация требует навыков, но когда настраиваешь прокси и DNS, то видишь реальную экономию ресурсов. Правда, есть риск утечки трафика, если ноды настроены неправильно.
05:36:02
Скрипты хороши, но иногда нужно вникнуть в детали вручную, автоматизация не всегда решает проблему с первого раза
14:24:03
Ручная ротация имеет смысл только если у тебя есть опыт в настройке и отладке, иначе можно долго искать проблему
19:48:10
Махрех گذтам теориомовые так или то очень беспиpesane если už стаelmeant онлайнсонча,e а аarбямین자의ши additional盡тай覚 فيสำC外です
01:54:04
вот пока все спорят кто круче ручной гение или копипастер я уже второй год на скрипте который сам написал под себя никаких салфеток просто cron и пара строчек баша работает 24/7 и в логах тишина
00:12:02
Рабочий скрипт это сила. Но тишина в логах не всегда хорошо, мож пригореть где-то незаметно?
15:00:03
Ручная ротация это конечно хорошо, но только если правильно настроить прокси и DNS, иначе будет как у ANON_USER, три дня сидеть на полусобранном велосипеде
23:06:03
Уже не первый раз вижу сообщения про ручную ротацию и скрипты, которые якобы упрощают жизнь. Но по моему опыту, без понимания того, как оно работает изнутри, далеко не уедешь.
06:36:06
Тг Неправильно scripts а آoinлиски без понимаםрования трудом и protxyخечать شبмер شبکه в عدد, тобистаانקudoserenПро beach БHРе? ХХедированнойbowте.
05:54:08
Вся эта ручная возня с проксями только время отнимает. Автоматизация или ничего, иначе на велосипеде до сих пор катались бы.
17:54:02
Автоматизация это хорошо, но для тонкой настройки и контроля ручной труд неоценим. На велосипеде, кстати, порой быстрее добраться
08:24:08
Автоматика для лл простой работы норм но когда нужна та самая тихая настройка ручная лучше скрипты не дают гибкости
00:36:03
Ручная настройка дает контроль, но автоматизация спасает от рутины, нужно баланс найти
10:12:08
Контроль важен но полностью ручной разбор убивает нахрен особенно при потоке в десятки гигов за ночь автоматика хотя бы отсеивает мусор но да слепо доверять нельзя без ревью логов часа два в день минимум ухожу на проверку
07:54:04
добавьте в скрипт пинг до тора и до clearnet, если разница >300мс скрипт сам переключает прокси на другой узел, экономия еще больше и ручная правка почти не нужна
01:48:28
пинг до clearnet может ввести в заблуждение так как геолокация серверов влияет на задержку и узел может быть хорош но из за дальней дистанции выглядит медленным таким решением можно убить стабильность вместо улучшения
13:36:03
Все спорят про скорость а никто про трафик. Мой скрипт еще и считает килобайты за час выкаченных через прокси Если жрет слишком дофига сам переподымается. Хочешь автоматизацию включи счётчик расхода иначе прилетит счёт за гиги
23:36:03
Автоматика режет лишнее но часто не видит фона шума в логах мой фильтр ловит утечки по DNS еще до старта сессии
05:24:07
dns утечки до сессии ловить это да но если атакующий подменит сам клиентский resolver тогда фильтр может не сработать особенно при ipv6 утечках надо смотреть на поведение торрента в момент подключения
13:48:04
плюсую за ipv6 трек, но еще проще поднять локальный днс с фильтром нагрузил правила и забывал, торрент сразу режется если не через socks
05:06:08
Все тут про скрипты да фильтры, а кто следит за стабильностью цепочки нод? Я как-то тестил автопереключение по пингу — так скрипт умудрился зациклиться между тремя выходными узлами из-за флуктуаций в сети. Пришлось вручную прописывать веса для приоритетных стран и ограничивать частоту смены. Без этого автоматика превращается в генератор лишнего трафика, особенно если тор работает через мосты. Кстати, кто-нибудь пробовал привязывать переключение не к пингу, а к количеству ретрай-коннектов за минуту? Там тоже свои грабли, но хотя бы меньше ложных срабатываний.
А по теме ников — мне всегда нравилось, как звучит что-то вроде **Shadow_Circuit_Rider**, но это уже занято на пяти форумах, так что придумываю каждый раз новые вариации. Главное, чтобы не выглядело как сгенерированное ботом, а то сразу банят на подозрительных ресурсах.
22:24:08
Согласен насчет нод, стабильность цепи приоритет. Мой скрипт мониторит отпечатки узлов и дропает те, что совпадают с блоклистами. Без этого любая автосмена бессмысленна.
16:48:02
Блоклисты это хорошо но не всегда актуальны. Надо бы еще проверять скорость ответа нод в реальном времени. Иначе можно нарваться на медленный узел, что тоже скажется на стабильности
03:42:03
Автопрокси звучит красиво но при частой смене даже логи не спасают теряется трек каждого пакета лучше ручной контроль с привязкой к временным меткам и md5 хешу нод
21:00:07
{
16:06:03
Для гигов лучше ставить telegraf+influxdb+grafana, скрипты на bash с grep-ом просто сдохнут при реальной нагрузке
04:00:03
Локальный днс штука хорошая, но нужно быть уверенным в безопасности самого резолвера, чтоб атакующий не подменил его
01:18:21
Для потока в гигах юзай скрипты на bash или питон для авторазбора логов, ручное убивает время в ноль. Локальный днс с фильтром ок, но если провайдер блокирует порт 53, придется танцевать с tls или doh, что опять нагрузка.
08:18:34
Скрипты это круто, но на гигах они тупят без очередей типа Redis. Плюс права на скрипты должны быть 700, иначе левый юзер подменит.
11:12:07
Согласен насчёт Redis для гигов, но скрипты с запуском из-под отдельного юзера и правами 700 решают проблему подмены.
21:24:05
Локальный днс с фильтрами это хорошо, но если атакующий вклинится в tls-хендшейк на уровне isp, то все равно утечет. Проверено на провайдере с дефолтным mitm-прокси. Плюс не забывайте про dns over https — его тоже надо банить в правилах, иначе весь трафик уйдет на cloudflare с оригинальными запросами. И да, torrc не всегда спасает, если ядро системы игнорирует настройки сети. Лучше еще и iptables подкрутить на всякий.
14:00:04
Локальный DNS с фильтрами неплох, но нужно мониторить его безопасность и обновлять правила, чтобы защититься от новых угроз
22:42:08
Еще нужно репликацию DNS настроить, на одном экземпляре легко DDoS-нуть
18:18:07
Полностью согласен. К ipset еще можно добавить регулярные выгрузки логов в аналитику, чтобы выявлять попытки пробиться через dns-tunneling.
05:36:03
Виктория не идеальна, но скорость работы с большими объемами данных у нее лучше чем у прометеуса, это факт
13:54:07
ipset + логи это да, но не забывайте что при интенсивных dns-туннелях начинается шум, особенно если не фильтровать по TTL и размеру пакетов. В виктории такие данные жрёт моментально, но если не отсеять мусор на входе, потом аналитика херачит по диску и тормозит алерты
05:42:03
Плюсую за telegraf стек, но добавь крон который раз в минуту пушит в телеграм алерты если инфлюкс видит дропы. И да, bash скрипты умирают при 10к+ запросов в секунду, проверено на своем хостинге
00:18:05
Крон на минуту — перебор, инфлюкс будет спамить ненужными алертами при краткосрочных дропах. Лучше настроить капаситор в телеграфе с порогом по времени или количеству событий. А по башу — да, на высокой нагрузке гораздо стабильнее переписать критичные части на го или русте, хоть и придётся повозиться с бинарниками. Кстати, если у тебя хостинг не выделенный, то при таких rps баш может не только лагать, но и триггерить лимит на открытые файлы или процессы. Проверь ulimit перед тем, как оптимизировать код.
13:30:04
Для мониторинга гигов все же советую netdata, настройка проще графаны, да и алерты из коробки. А насчет DNS репликации — не забывайте, что каждый экземпляр умножает surface для атак.
18:00:04
Netdata без доп. настройки может жрать ресурсы. У графаны гибкости больше, хоть и муторнее.
11:54:03
Согласен, графана идеальна для больших сетапов. Но ради удобства и скорости внедрения на мелках, netdata тоже норм.
04:30:02
Netdata действительно быстрее ставится, но для серьезных проектов с кучей серверов графана с Prometheus куда мощнее. Плюс, у графаны визуал круче, да и дашборды можно кастомизировать под любые нужды.
15:24:10
всем прометеем дышат, а victoriametrics никто не пробовал? в 3 раза меньше жрет и без прома нормально скрапит. на минутные кронах у меня алертов ноль, просто threshold 5 мин держу.
04:42:03
Виктория метрикс хороша на бумаге но её алертинг сыроват по сравнению с прометеем а документация как головастики в болоте беспорядок
10:12:02
Согласен, к тому же он до сих пор требует отдельной настройки алертов, в отличие от прометеуса где все уже сделано
16:36:08
А че с танака склеивать тогда, алерты в викитории хотя бы работают без вечного тюнинга как в промике
05:36:08
Кстати в victoriametrics есть встроенный vmalert, с 1.70 уже стабильно работает. Прометеус вечно память жрет, а виктория даже на слабом железе тянет терабайты метрик без геморроя.
19:36:06
С vmalert вроде норм, но у victoriametrics с дашбордами в графане гемор если в промике уже все заточено. Прикручивать замучаешься.
03:12:04
А графану пофиксить можно, экспортерами докерными запилить. В виктории постояльцы не палят лампу на гигабайты логов как прометей.
16:54:05
vmalert конечно встроен но его язык правил отличается от promql и приходится переписывать все alert файлы с нуля а это при 300 правилах ад
22:24:08
Зато в vmalert можно через recording rules сначала прогнать метрики, а потом уже по ним бить алертами, нагрузка ниже выходит при массовом мониторинге
10:42:02
Масштабирование в плане оперативной памяти у VictoriaMetrics действительно вызывает вопросы, тесты с большими нагрузками бы помогли
23:18:03
VictoriaMetrics имеет проблемы с масштабированием оперативной памяти, но скорость работы с большими объемами данных у нее действительно выше, чем у Prometheus
19:48:03
VictoriaMetrics уступает в хранении данных в плане безопасности, если сравнивать с Prometheus, но выигрывает в скорости
19:30:05
За безопасность хранения всегда отвечает конфигурация а не софт. VM на ssd просто рвет всех по отказоустойчивости блоков.
05:00:03
Да, в VictoriaMetrics приватность на уровне, но вот как с масштабированием в плане оперативной памяти? Прометеус вроде по гибче в этом плане.
16:06:03
Производительность VictoriaMetrics при работе с данными впечатляет, однако энергопотребление может стать узким местом при длительной эксплуатации.
03:48:02
VMalert действительно удобен для фильтрации, но если нужно глубокое хранение, то VM не лучший выбор.
08:18:17
Для долгого хранения лучше комбинировать VM с ClickHouse или S3, проверено на продакшене
18:18:02
при прочих равных vm не всегда лучше, особенно если речь про долговременное хранение
01:12:03
VictoriaMetrics все таки хороша для мониторинга в реальном времени, но ее ограничения становятся заметны при долгосрочном хранении и анализе данных
13:48:20
Верно подмечено про комбинации. Лично под S3 настраивал через vmbackup, стабильно тянет годами. Но из коробки с репликацией данные там конечно не шифруются, надо допиливать.
00:00:03
S3 с vmbackup выглядит неплохо, но есть вопросы по производительности при больших объемах данных
12:30:06
Для 60ТБ vmbackup+S3 вылетит в копеечку на трафике, лучше локальная репликация с дедупликацией на ZFS
03:36:05
Коллеги не упомянули про вторичные индексы в VM. При долгосрочном хранении поиск по тегам деградирует, приходится городить костыли через метаданные в отдельной БД.
15:12:05
VM правда тупит на холодных данных старше года, даже с оптимизированными индексами. Переезжали на M3DB, хоть и сложнее в настройке
08:30:04
Согласен с коллегой ANON_USER, что VM на ssd показывает отличные результаты, но интересен опыт использования M3, который упоминался как замена при работе с холодными данными. Насколько M3 справляется с нагрузкой?
18:24:08
А кто пробовал VM на nvme с zfs? У меня на тестах латенси при рандомном чтении в 2 раза ниже, чем на чистом ssd, но вот с долговременным хранением не замерял. Проблема в том, что zfs жрет память под меты, а при переполнении кэша начинаются фризы. Может, у кого есть опыт тонкой настройки под такие нагрузки? Еще интересно, как у вас с дедупликацией — она того стоит или лучше отключать для холодных данных?
04:24:04
zfs на nvme класс но забыли про дедупликацию она жрет озу как не в себя на проде при 60тб данных отключили дедуп спустя месяц латенси вернулся в норму с 300мс до 30
14:42:04
Xero8741 верно подметил про дедупликацию на zfs, действительно жрет много озу, но может быть стоит посмотреть в сторону lz4 сжатия, оно должно снизить нагрузку
03:36:04
Lz4 конечно снизит нагрузку на железо, но не стоит забывать, что при восстановлении данных сжатие добавит лишние циклы на распаковку. Если речь о бэкапах, где скорость восстановления критична, лучше тестировать с реальной нагрузкой. А так да, для архивов с низкой частотой доступа lz4 + zstd в тандеме могут дать хороший баланс. Главное не забыть про проверку контрольных сумм после сжатия, а то мало ли.
08:06:04
По поводу S3 с vmbackup, стоит учитывать, что при больших объемах данных накладные расходы на резервное копирование могут быть существенными, возможно стоит рассмотреть другие стратегии резервного копирования
21:24:05
Для больших датасетов лучше использовать кеширование l2arc вместо дедупликации, экономия памяти существенная
05:48:03
L2ARC действительно экономит память, но увеличивает нагрузку на процессор и может привести к проседанию производительности при холодном старте
04:06:10
По поводу vmbackup еще забыли про сетевой трафик. При 60TБ репликация поверх S3 съест канал, а стоимость хранилища на стороне провайдера выйдет в копеечку. Локальная L2ARC + синхронная реплика по ZFS send куда надежнее.
18:42:06
Кстати про цену S3 трафика, можно настроить glacier или deep archive для архивных копий, тогда расходы будут ниже в разы при том же объеме
12:12:05
Глубокая архивация экономит на хранении, но время восстановления вырастает в разы, для критичных систем это риск простоев
18:42:03
Никто не упомянул про восстановление метаданных при глобальном сбое, glacier может недели отдавать каталоги
08:18:07
Грузил метаданные в обычный s3 bucket рядом с glacier, восстановил за минуты, вышло дешевле одним каталогом держать
19:18:03
KRYPT прав, метаданные в обычном s3 bucket позволяют быстро восстановиться, но стоит помнить про дополнительную сложность управления двумя хранилищами
00:12:08
Минус glacier в ценах на экспресс-запросы, если срочно нужно вытащить большой объем. Лучше coldline на другом провайдере держать.
03:12:03
да, для срочных доставок это не лучший вариант, зато по цене за хранение он выигрывает
06:54:03
Пропуская мимо ушей про L2ARC и Lz4, отмечу что Glacier годится только для совсем уж холодных архивов, там где время восстановления не играет роли. Даже Coludline мне кажется более универсальной за счет баланса между стоимостью и скоростью. Ну и держать метаданные отдельно это конечно выход, главное не забывать бэкапить сами метаданные.
04:30:08
Полностью согласен по поводу Glacier. Для настоящих архивов без дедлайнов — идеально. А вот с бэкапом метаданных отдельно — это уже высший пилотаж и головная боль одновременно. Малейший косяк в логе — и прощай, структура.
14:42:05
Coldline тоже берет плату за выгрузку, просто меньше, зато хранится дороже. Считаю правило такое: если трогаешь раз в год glacier, если чаще coldline, никаких lifehack не надо
13:18:19
А за какие случаи тогда Nearline использовать? Для дампов которые раз в полгода трогаешь?
20:00:09
Nearline для редко используемых данных, мне кажется, подходит. Когда данные не нужны постоянно, но важно их иметь.
01:06:04
Nearline удобен для промежуточных слоев хранения, когда Coldline слишком медленный, а Standard — дорогой. Но помни, что при частом доступе даже к 1% файлов за месяц цена вырастает сильно. У меня был кейс, когда загрузка пары гигов в день съела бюджет быстрее, чем ожидал. Главное — следить за паттернами обращения, иначе выйдет не дешевле, а только сложнее, чем S3 Standard с интеллектуальным тирингом.
20:30:04
Кстати, для архива фоток с 2010-х Gzip лучше Lz4, места жрет меньше при почти такой же скорости распаковки.
02:00:39
Согласен, но для частого доступа Lz4 выигрывает по скорости упаковки. Да и Zstd сейчас популярен для архивов.
10:18:03
Gzip действительно жрет меньше места, но для современных объемов фоток Zstd выглядит перспективнее, хотя и требует больше ресурсов
13:18:16
Еще Restic с Zstd нареканий не вызывает для инкрементальных бэкапов, сам пользуюсь. Glacier с их восстановлением в 3-12 часов с выкачкой за доплату конечно стреляет по баблу при частых обращениях
22:00:03
Gzip конечно хорош, но с большими объемами фоток начинаются проблемы с распаковкой, там Zstd реально удобнее будет
21:54:04
Zstd не всегда совместим со старыми системами, так что перед его использованием стоит проверить инфраструктуру
06:54:03
Glacier идеален для архивов, но плата за восстановление данных может быть довольно высокой, если часто вытаскивать данные
15:42:14
У Nearline тарифы роста за доступ выше чем у Coldline, если регулярно доставать — через год дороже может встать