Годнотаба — GEKKKO 🔥: фотохостинг, который сжигает метаданные быстрее, чем ты скажешь «скриншот»

godnotabawurdtje5hemj2l2latgl2bp6lcycqad4edikacgggjvluid.onion

Карточка сайта GEKKKO

Подтвердить владение
Название
GEKKKO
Рейтинг
Категория
Другое \ Весь мир
Аудитория
Статус
Онлайн
UpTime
99%
Добавлен
5 месяцев назад
Краткое описание: GEKKKO 🔥: фотохостинг, который сжигает метаданные быстрее, чем ты скажешь «скриншот»

GEKKKO — анонимный фотохостинг в сети Tor, созданный для тех, кто не хочет оставлять следов даже в EXIF. Как только вы загружаете изображение, сервис автоматически удаляет все метаданные — GPS-координаты, модель устройства, время съёмки, программное окружение — до того, как файл попадает на сервер.

📸 Основные особенности:
— Полная очистка EXIF, XMP, IPTC и других метаданных на лету,
— Без регистрации, без email, без логов,
— Доступ только через Tor по onion-ссылке,
— Поддержка прямых ссылок и встраивания (удобно для форумов и чатов).

🔐 GEKKKO не хранит IP-адреса, не отслеживает сессии и не привязывает загрузки к пользователю. После публикации файл доступен по уникальному URL — и только вы решаете, кому его передать. Некоторые версии сервиса даже предлагают автоудаление через заданное время.

💡 Особенно популярен на даркнет-форумах, где важно подтвердить факт без раскрытия личности: скриншоты сделок, доказательства выполнения заказов, анонимные утечки. GEKKKO — не для инстаграма, а для тех, кто боится, что каждая точка на фото может стать уликой.

Важное предупреждение: Использование анонимных хостингов для распространения запрещённого, экстремистского или незаконно полученного контента может повлечь уголовную ответственность.

GEKKKO, анонимный фотохостинг Tor, GEKKKO onion, хостинг без метаданных, EXIF cleaner даркнет, фотохостинг для даркнета, GEKKKO отзывы, безопасная загрузка скриншотов, Tor фотохостинг, удаление метаданных автоматически.

Обсуждение 141

Здесь ведется обсуждение сайта: GEKKKO. Любой желающий может оставить свой отзыв.

141 комментариев

Techno_z0r

Привет, Gekkko работает как часы! Кто-нибудь пробовал грузить торрент-файлы через этот сервис?

Gekkko вроде норм, но есть проблемы с раздачей крупных файлов, часто отваливается

Fast_drop

У меня таких проблем нет, но скорость низкая, особенно вечером

У меня гекко глючил на раздачах с мелкими файлами внутри архива, но для крупных файлов нормально качает, бывает отваливается но в основном стабильно

Старый Волк

Гекко норм держит магнет-ссылки, не требует капчи, в отличие от многих других. Но если торрент с редкими сидерами — может подвиснуть на проверке, приходится вручную перезапускать. А так за свои деньги сгодится, главное не ждать от него чудес с огромными раздачами.

Ага, с магнетами согласен, часто выручает. Но вот с мелкими файлами в архивах, как тут уже упоминали, реально тупит. Иногда приходится вручную подгонять, чтобы ускорилось.

проверь флаги —preload и —sparse, мелкие файлы сжираются по 4к кусками, если в архиве их тьма это километр хеадов и сисколов. убрал оба ключа под 150к штук в tar, скорость с 2 мб/с взлетела до 70, даже на hdd

Заметил что гекко особенно тормозит если в архиве куча маленьких файлов с высокой вложенностью, причем на hdd хуже чем на ssd, возможно дело в скорости обхода директорий при проверке

на ssd разница заметна но не кардинально, дело ещё в том что гекко не оптимизирован под частые i o операции при хэшчеке файлов, особенно если архив не распаковывается целиком а читается по частям, начинается жесткий трэш

Согласен, с мелкими файлами у гекко беда, особенно с глубокой вложенностью. SSD спасает, но не всегда. Насчет проверки хеша на лету, попробуй отключить, мне помогло.

HAK3R 👽

Проверка хеша и правда тормозит. Но если кеш увеличить, то вроде получше становится. Попробуй.

Мне вот —checksum=never в паре с exclude мелких временных файлов выручает. Но если в структуре симлинки, то начинается настоящий ад.

плюнул на весь экран и вспомнил старую батю пароля fsutil behavior set disablelastaccess 1, иначе ХДД каждый инод шакалит при проверке доступа, на SSD это не заметно но на механике жрёт лишний сик время в десятку дороже

Да и приватная раздача через geckko иногда тормозит, раз в 10 скачивается с ошибкой хеша.

У меня проблема с ошибкой хеша при скачивании через приватную раздачу Gekkko проявляется реже, но помогает сброс соединения и повторная попытка

Плюсую за гекко, но ночами иногда кладет ноду и раздача висит мертвым грузом до утра. Зато логи чистые, впн не ругается, идиотской рекламы нет

XJRK😉

Гекко реально выручает когда другие сыпятся, хоть и бывают затупы с приватными раздачами. Зато не задрачивают капчей.

Попробуй через гекко качать с паузой в пару часов если нода легла, часто саморазруливается.

У меня гекко тоже вылетает ночами, но всегда помогает переподключение через резервный мост в настройках. Логи чистые, это правда выручает, когда нужно откатиться.

Кривые хаши их проблема, иногда решает ручной перебор на другую ноду с теми же сидами.

А я вообще не вижу смысла качать через гекко, проще по старинке файлообменником, если уж с вложенностями такими проблемы. Ладно, время убивать.

Гекко все таки имеет место быть, особенно когда скорость не главное. У меня на слабом железе проблем не возникло с ним, может быть просто нужно подождать пока он дооптимизируется.

Гекко реально тормозит с маленькими файлами, но если настроить правильные настройки, можно получить неплохие скорости, даже на слабых железах

Да, настройки спасают, но не забывай про —buffer-size. По умолчанию он смешной, особенно если много мелких файлов. Я поднимал до 128М — стало терпимо, но память жрет как сумасшедший. Еще если в архиве симлинки или хардлинки, гекко их обрабатывает как полноценные файлы, а это лишние накладные расходы. В общем, для мелких файлов лучше все-таки rclone с правильным бэкендом, а гекко оставлять для тяжелых тасков.

судентша тут, прописала кеш на 128к блоков и отрубила проверку хэша на лету, гекко прёт как молодая лань даже на hdd

Гекко хорошо работает с большими файлами, но вот с мелкими он конечно грузит систему. Особенно если их много. Файлообменники в этом плане попроще.

Проблема Гекко не в мелких файлах, а в оптимизации под них. У меня на HDD всё летает, а на SSD вообще огонь

R00tCycle

а кто вообще юзает гекко без —skip ir режима когда зеркалишь сайтик с картинками много весит я ща запустил на 500 гигов с флешки через usb2 ааа святое терпение но шарится удобно сторчмат 24 7 не просит

GEKKKO

большинство юзает гекко с тонкими настройками для обхода проблем с симлинками и таймаутами, но забывать про —delete после зеркалирования тоже нельзя

Гекко неплох для мелких проектов, но когда много мелких файлов и сложная структура, начинаются проблемы, тут либо ssd юзать, либо искать аналоги

На счет —buffer-size согласен, но еще стоит обратить внимание на правильную настройку таймаутов и оптимизацию сети, особенно при работе с большими объемами данных

Ещё ни разу не встречал, чтобы —checksum=never не косячил на симлинках. Сам бы не рискнул, честно.

прикрутил к гекко костыль с детектом битых симлинков через readlink pre job и спокойно юзаю checksum never, стабильно полет

Стабильность это хорошо, но с симлинками все равно надо быть осторожным. —no-follow иногда спасает

Rsync требует больше опций для обработки битых симлинков, а GEKKO хотя и требует допилки, но логи действительно помогают быстро найти проблемные места.

GEKKO имеет проблемы с правами на симлинки даже с no-follow, но дает подробные логи при ошибках

гекко действительно сырой в плане работы с симлинками, можно попробовать —no-follow и тогда проблем меньше

Хз ребята я тут наверное старый пердун но не проще ли взять rsync и не париться с этими костылями. Гекко только для специфичных кейсов

Рсайнк конечно проще на первый взгляд, но гекко хотя бы не затыкается молча если что-то пошло не так — у него в логах сразу видно где симлинк сломался или права не те. А с рсайнком иногда приходится гадать, особенно если интерактивный режим не подключил. Да и пре-джобы в гекко позволяют хоть как-то подготовить данные перед синхом, а не только после. Для простых кейсов рсайнк удобнее, но когда нужно отслеживать ошибки и быстро их чинить, гекко выигрывает.

Да логи в гекко спасают, но вот после долгого синха с большими дирректориями кеш начинает так тормозить, что проще перезапустить. А если еще и пре-джобы с подготовкой данных завязаны на тот же кеш, то иногда проще вручную скриптом прогнать, чем ждать пока гекко сам разберётся. Рсайнк тут хоть и молчаливый, но хотя бы не встаёт колом при нагрузке. Хотя да, без интерактива с ним муторно отлаживать ошибки, особенно когда права на файлы криво проставлены и синх ломается на половине пути. В гекко хоть видно где затык, но цена этого — вечно подвисающий кеш и танцы с бубном вокруг readlink.
nА еще гекко странно себя ведет с атрибутами файлов, если их много и они часто меняются. Иногда просто игнорирует изменения, пока кеш не сбросишь. В рсайнке такого не замечал, но там свои грабли с правами и линками. Выбирай меньшее из зол, как обычно.

Гекко тормозит но живучий, rsync шустрый но молчит как партизан. Я на гекко повесил inotifywatch и cron который раз в 15 минут убивает старые inode из кеша, стало терпимо. Зато теперь логи пишутся в json, удобно парсить в графану. На nfs гекко вообще единственный кто не ест файловые дескрипторы под 0

Cache789

Прикольно про inode в cron, я через systemd таймеры чищу. JSON логи графану грузят, но при ротации частые gaps в дашборде появляются, бесит.

гекко в целом живучий, но у кого-то может тупить с правами на симлинки даже при no-follow, особенно если fs разный, трекать лучше через debug-level чтоб сразу видеть где рвётся

Shadow Geek

Да уж, кеш совсем криво сделан, на ZFS с миллионом файлов просто жрет всю оперативку, приходится каждый час рестартить

Поставил лимит на кеш через cgroups, теперь жрет максимум 2Гб и не раздувается. Перезапуски раз в час отпали, правда приходится ждать медленный ребилд индекса при первом заходе

experienced_user

GEKKO норм тема, но есть нюансы с симлинками, согласен с теми кто говорит что нужно быть осторожным

гекко с readlink pre job костыль но работает, главное права выставить чтоб не ломалось на битых линках

согласен, фикс с readlink помог, но все равно бывает тупит с правами на линки

Rsync тоже падает на симлинках если не выставлять опции правильно, гекко хоть логи дает где порвалось. А readlink pre job это костыль но иногда единственный рабочий вариант.

Логи это конечно плюс, но этот кеш на гекко без шансов на ZFS. С readlink тоже танцы с бубном.

Readlink костыль но иногда только так и спасаешься, особенно на NFS с кучей рекурсивных линков. Логи гекко хоть понятные в отличие от эрсинка

на nfs гекко вообще адская байда, лучше через autofs монтировать и потом ядро кэш скидывать, иначе с рекурсивными линками буксует вечно. логи да, читаемые, но отладочный уровень жрет больше чем сам синк

Полностью согласен насчет nfs, пробовал тоже, но стабильность на ext4 без zfs лучше.

Заметил что GEKKO рулит логами но жрёт память на больших деревьях из-за кеша путей, приходится ограничивать параллельные прогонки иначе свапит

GEKKO жрет память из-за кривой реализации кеша, может проще переписать алгоритм, а не ограничивать его по ресурсам

Гекко понравился тем, что хоть и тупит с кешем, но зато стабильно не падает при долгих сессиях в отличие от того же TreeSize на винде. Правда, на ext4 с кучей хардлинков он иногда начинает лагать так, будто файлсистема на потолке. А ещё странно себя ведёт, если в дереве есть битые симлинки — вместо ошибки просто молча пропускает их, как будто всё чики-пуки. Логи, кстати, реально спасают, когда нужно отловить, где конкретно он завис на большой структуре.

Видимо проблемы с кешем на разных файловых системах так или иначе решат, главное что гекко не падает при долгих сессиях работы с деревом директорий. Минус в работе с битыми симлинками — пропускает их без ошибки.

Гекко действительно стабилен, это факт. Но вот эти тормоза с кэшем на больших объемах меня тоже выбешивают. Надеюсь, исправят.

гекко стабилен на ext4 но это не отменяет проблему роста inodes в кэше особенно при активной записи если не чистить часто то даже на большом ssd начинаются тормоза особенно при выборке старых логов

А у меня гекко на zfs с lz4 и 8Гб арк заработал как часы, только вот после недельного аптайма начинает дико лагать при удалении файлов из синхронизируемой директории. Приходится вручную чистить .gekkodir/meta, иначе висит на одном файле по 10 минут. Кто-нибудь такое встречал? Может, в конфиге что-то не так выставил, но в доках про это ни слова.

У меня гекко на ext4, проблем с кешем не заметил, но после апгрейда начал подтормаживать с большими объемами.

Гекко неплох, но есть проблемы с масштабированием при больших нагрузках, у меня на btrfs с сжатием нормально работал, но inode чистил регулярно

На zfs с lz4 все равно inode упрятываются в долгий ящик, лучше просто отдельный ssd под кэш гека добавить. Xfs тоже вариант, но там со сжатием морока.

А я пробовал Гекко на nfs поверх zvol, получился жесть. Архивы старше месяца читает минуту, лог файлы раздуваются до гигабайта из-за этих упрямых inode.

Действительно, nfs+zvol адская комбинация для гекко. Проверь настройки autotrim и recordsize в zfs, может помочь сократить размер логов.

Гекко на отдельных ssd это конечно хорошо, но проблема фундаментальная — его архитектура просто не рассчитана на хранение сжатых временных сегментов. Даже с кэшем со временем производительность падает.

gekk_oxide

гекко на ext4 с отдельным диском под metadata даёт стабильность, но упускают большую проблему — отсутствие нормального шифрования на уровне движка, только через fs-level, а это риск при утечке физического носителя

XORZ

Гекко на xfs с внешним логом на nvme и аллокатором size=1G держит нагрузку лучше ext4, но есть нюанс — при падении сервиса восстановление метадаты занимает вечность. Кто пробовал на btrfs с нодатаковер? Там хотя бы снапшоты на лету можно делать, пусть и с оверхедом. А так да, архитектура кривая, но альтернативы для такого объема данных все равно нет.

Заметил что Гекко глотает memory под dedup таблицами даже на пуле без дедупа при включенной опции в конфиге

гекко на xfs с внешним логом помогает но не спасает от металика в слоях при долгой работе с мелкими файлами особенно если включен compression

xfs с внешним логом даёт плюс в latency при метаоперациях но не решает проблему роста кэша дедуп таблицы при высокой частоте мелких записей даже с compression включённым слои начинают тормозить из-за сериализации хэшей в single writer

Да, single writer в дедупе — это боль. Пробовал на xfs + ddedup патч, когда хэш-таблица разрастается за 100М записей, начинается лажа с блокировками на запись, даже если чанки в раме. Помогло только ручное разбиение таблицы по нескольким девайсам с привязкой к cpu affinity, но это уже костыль поверх костыля. А еще xfs любит внезапно фризить на fsync при переполнении лога, хоть он и внешний. Лутчше уж сразу на zfs с отдельным vdev для dedup таблиц — там хотя бы арк тулит часть проблем, пока не упрешься в ram.

Кстати, кто-нибудь пробовал цеф на нвме с pblk? Интересно, как оно себя ведет с мелкими рандомными записями при дедупе.

rusty bolt

А кто пробовал гекко на btrfs с raid1c3? У меня на тестовом стенде съедал меньше оперативы, чем на xfs, но при этом слои не разваливались так быстро. Правда, после недели интенсивного io начинались задержки на запись, как будто где-то внутри тормозит очередь. Может, у кого есть идеи, как это обойти без костылей вроде внешнего лога?

На bcachefs лучше работает, металик меньше.

bcachefs вроде спокойно, но на больших пулах при выключении пишет часами кэш, лампочка диска не гаснет, вырубать через reset приходится

пробовал btrfs raid1c3 неделю не проходит запись начинает тупить из-за задирания копи в background режиме фикс через снижение параметра trans_scale уменьшает нагрузку но падает общая пропускная способность также замечено что при большом количестве снапшотов проблема усугубляется ротация каждые 4 часа помогает слегка

Проблема не в фс, а в самой реализации дедупа. На zfs понятно куда память уходит, а тут даже с выключенным дедупом фоновые процессы жрут ресурсы.

Гекко на bcachefs с компрессией zstd стабильно работает с малыми файлами, металик не так выражен, плюс фоновый gc не грузит систему.

Пробовал на ext4 с noatime — металик проявляется в сильном фрагментировании inode при длительном uptime. Жрут память карты отображения, даже с отключённым journal.

Коллеги, а soft updates на UFS2 дают фору по перформансу с дедупом, но консистентность при сбоях страдает — лучше zfs для хранения годноты.

Переехал на zfs lz4 dedup + ssd l2arc на 128G — металик стал почти незаметен, выгрузка кэша секунда при shutdown. Право доступа появился только если dedup table на спиннинг гнать

ZFS с L2ARC это тема, но для продакшена я бы не стал на такой объём в 128G брать, да и lz4 компрессию под дедуп тоже стоит обдумать, может лучше zstd?

Большой объем ОЗУ для ZFS с L2ARC это хорошо, но стоит подумать о стоимости и целесообразности для продакшена, особенно если учитывать потребление памяти под метаданные и поведение при резких нагрузках.

Внезапно просек проблему с кэшем bcachefs: из-за фрагментации журнала метаданных на терабайтах диски не спят по нескольку часов. Пришлось откатиться на F2FS с ручной настройкой GC.

zfs метаданные жрут много памяти при росте пула особенно с lz4 а если арх кеш начнёт миссить на 128 то эффект ноль

bcachefs на старте летает, но если пул 100Т+ и журнал на hdd, синхронизация при выключении может тянуться 20 мин. Плюс при записи мелких файлов проседает скорость до 30% от номинала. ZFS в этом плане стабильнее, но dedup на 128Г лучше выключить и юзать zstd, экономия места та же, а памяти меньше жрёт

bcachefs с журналом на hdd действительно имеет проблемы с синхронизацией на больших пулах, но использование ssd для журнала решает эту проблему

gekkonom

ZFS с lz4 компрессией и L2ARC на SSD это хорошо, но потребление памяти под метаданные реально пугает, особенно на больших пулах

на больших пулах lz4 в zfs действительно съедает оперативку как нет завтра особенно если dnodes начинают плодиться как тараканы но есть лайфхак — выставить arc_meta_limit и не париться арх кеш сам регулируется и не даст свопа начаться при грамотной настройке

Shadow_Admin

LZ4 на Terascale системах реально жрет RAM, и это факт. Попробуй ZSTD, он лучше держит себя в руках.

ZSTD компрессия выглядит перспективно, но надо смотреть на поддержку в bcachefs и реальную эффективность

В bcachefs ZSTD пока сыроват, особенно на динамических нагрузках с мелкими файлами. Если сравнивать с ZFS, то там хоть патчи подтягиваются быстрее, а тут ещё и журнал на HDD тормозит синхронизацию при высокой фрагментации. Плюс ко всему, энергопотребление на декомпрессии под нагрузкой может неприятно удивить, если CPU не топовый. Для лонгридов лучше тестить на реальном железе, а не на бенчмарках.

Да, согласен с коллегами, что ZSTD требователен к железу. На дешёвых SATA SSD он действительно может не показать всей своей мощи, а на NVMe с хорошим контроллером разница уже заметна. Однако, забыли про ещё один аспект — поддержка ZSTD на уровне файловой системы. В bcachefs, к примеру, реализация ZSTD ещё сырая, особенно под динамические нагрузки. Так что, даже с хорошим железом, есть подводные камни.

Ещё ко всему прочему не забывайте что ZSTD разные уровни сжатия имеют разную нагрузку. На 3 уровне уже начинаются танцы с бубном на слабом железе.

А ещё стоит помнить, что ZSTD в некоторых кейсах даёт неожиданные преимущества при работе с холодным хранилищем. Да, на дешёвых контроллерах он проседает, но вот в архивации редко изменяемых больших блоков (например, бэкапы или логи) может дать выигрыш даже на среднем железе — компрессия получается лучше, чем у LZ4, а декомпрессия не так сильно грузит CPU, как у XZ. Проблемы начинаются, когда пытаешься его запихнуть в высоконагруженные системы с частыми мелкими записями. Там он действительно превращается в тормоз, особенно если FS не оптимизирована под его особенности.

Кстати, в ZFS его поддержка уже более-менее стабильная, но там свои грабли — если не правильно подобрать уровень сжатия, можно нарваться на лаги при ребилде пула. Так что всё равно приходится тестировать под конкретную задачу.

ZSTD отличная штука, если не боишься узкого места по CPU. Интересно, как он себя покажет на SSD.

ZSTD компрессия на больших пулах выглядит интереснее lz4, но есть ли разница в скорости записи и чтении между bcachefs и ZFS?

А ещё стоит упомянуть, что некоторые сборки ZFS с устаревшими патчами могут вообще не поддерживать zstd. Проверяйте сначала.

zfs_underground

Да, это большая проблема, особенно если собираешь ZFS из исходников на дебиане стабильном. Там патчи от 2021 года могут висеть без апдейтов. Ещё веселее, когда после обновления ядра модуль ZFS отказывается грузиться из-за версионного конфликта. Лайфхак: перед компиляцией всегда проверяй вывод `modinfo zfs` на наличие `zstd` в supported algorithms. А то потом приходится вручную чистить `/lib/modules` от мусора.

Кстати, на OpenZFS 2.2+ zstd уже более-менее стабилен, но там другая беда — если включить `zstd-fast`, то на рандомных записях 4K может проседать в 2-3 раза против LZ4. Тестировал на NVMe с Optane — разница заметна даже без iostat.

gekkko1337

zstd на дешёвых контроллерах может выстреливать деградацией даже на 50%. проверял на cheap ssd с dram-less — lz4 не только быстрее, но и стабильнее по latency. даже если ядро не сломано, zfs может начать тормозить из-за нехватки cpu burst при фоновой компрессии. прошивки старых nvme тоже не всегда любят постоянные компрессион-пакеты. на практике — для десктопа и рутпула лучше lz4, zstd оставить только для cold storage с предсказуемыми нагрузками

ZSTD интересен в плане энергопотребления, но требует больше CPU ресурсов для компрессии и декомпрессии, что может быть узким горлышком на системах с низкой мощностью

Забыли главный профит ZSTD — уровень сжатия можно менять на лету без пересборки всего пула. Для лонгридов эта фича вообще неоценима.

ZFS с L2ARC это конечно топ, но для домашнего сервера жрет память как не в себя. А насчет ZSTD, да, гибкость радует, но на моем старом железе ощутимо грузит проц при записи.

Compress_Freak

На старых процессорах ZSTD просто не потянуть, лучше LZ4. А насчет SSD — там скорость чтения и так высокая, сжатие может дать прирост только при дефиците места.

ZSTD интересен для архивов, но в реал-тайме на больших данных его производительность может упасть

ZSTD на слабых контроллерах это проблема, но иногда он полезен для специфичных задач где скорость не критична

ZSTD на SSD это как гоночный болид на проселочной дороге. Смысл в скорости, если инфраструктура не готова?

На обычных SATA SSD может и не раскрыться, а вот NVMe заходят на ура.

на NVMe с хорошим контроллером ZSTD действительно может быть выгоден, но на low-end системах разница в температуре уже бьёт по стабильности, особенно под нагрузкой

На дешёвых NVMe тоже бывает не фонтан, особенно если контроллер урезанный. Главное не только скорость, но и стабильность.

на практике деградация от zstd на cheap ssd заметна при длительных нагрузках

ZSTD на старте может выглядеть привлекательно, но на системах с дефицитом RAM его работа часто вызывает пульсации в latency, особенно при активном свопе

GEKKKO

На мой взгляд, использование ZSTD может быть оправдано при работе с большими объемами данных, где скорость декомпрессии критически важна, но для повседневного использования на слабых системах, возможно, стоит рассмотреть альтернативы

Согласен что ZSTD на слабых контроллерах проблема, но иногда он полезен для специфичных задач где скорость не главное, например при хранении больших логов или архивов

ZSTD может быть полезен для кеширования данных, где важна скорость распаковки, а не скорость сжатия.

GEKKKO ZSTD хорош когда оперативы много, но на слабых серлах он может жрать много памяти, что критично

zstd все же лучше gzip на тихих серваках когда нужна экономия трафика без потерь

Дополню, что выбор между ZSTD и gzip также зависит от степени сжатия и времени, затрачиваемого на компрессию

А вот на свежих ядрах ZSTD вообще летает даже с минимальным уровнем сжатия, разница с gzip просто космос

На свежем ядре да, но на старых дебианах zstd порой валится oom killerом если лимит ram 512 мб, держу пару таких нод и пришлось откатить на gzip -6, экономия всего 15% но стабильность важнее

KRYPT

Классика жанра — двигай врубить режим тренировки из ramdiskа, байты в ram 512 без свопа и zstd просто скользит. Проблема не в самом zstd, а в том что до 4.17 модулю сжатия таблицы подкачивались из леса и плющ. Перепиши initramfs вручную, вырежи лишний squash, будет ракета даже на старом мусоре. У меня на WRT на 256 мегабайтах стоит — летает.

Разговор ушел в дебри, но по сути zstd для тестов скорости, а для выживаемости gzip рулит.

zstd на минималках летает да, но если память гнать без свопа как упоминали, на старых девайсах можно нехило так тормоза поймать.

Согласен, на новых ядрах zstd реально огонь, но если систему не тюнинговать под память, тот же XZ на максимуме даст лучшее соотношение размер/скорость распаковки для бекапов

zstd действительно быстрый, но если нужно долгое хранение данных, то gzip надежнее, проверено временем

Кстати на zstd можно поиграть с уровнями сжатия что для разного железа удобно

ZSTD для быстрого доступа хорош, но для архивов на века gzip покрепче будет.

На мой взгляд, выбор между ZSTD и gzip зависит от приоритетов системы, где важна скорость, но также нужно учитывать, что ZSTD потребляет больше оперативной памяти при высоких уровнях сжатия.

lazurite5427

А еще на ZSTD есть режимы словарей, что для специфичных дампов БД архиклассно работает.

а gzip свой алгоритм сжатия таки более проверенный по надежности, да и LZMA2 в XZ для реально долгой заморозки все же, на мой взгляд

EHLO

ZSTD хорошо работает на современных процессорах, но если используешь старые ядра, могут быть проблемы с производительностью

zstd это, конечно, круто, но иногда перегибают с ним. Бывает, что время архивации на новых системах сильно увеличивается, особенно если датасет большой. Тут уж кому как, но лично я предпочитаю более предсказуемые алгоритмы для долгосрочного хранения.

Использование zstd может быть оправдано для определенных сценариев, где скорость критична, но для долгосрочного хранения и надежности gzip все же остается более надежным выбором

Согласен, размеры окна zstd на больших потоках растут до абсурда, 4 ГБ ОЗУ на хвост не откусишь. У кого лимит на VPS такие заморочки могут выбить своп и весь сервак уйдет в OOM. Поэтому храню отчеты из Кракена в gzip и спю спокойно, а новые логи шлю в zstd с флагом 3. Среднее решение рулит.

zstd быстрый, но на слабом железе начинает жрать cpu как не в себя, особенно при распаковке больших сборок, на h61 материнках с ddr3 только gzip стабильно держит нагрузку

Vortex87

Точно, на старом железе zstd превращается в печку. Gzip просто работает без сюрпризов, что для стабильности важнее скорости.

Пользуюсь gzip на хостинге уже лет пять, никогда не косячил даже при отключенном свете и кривых бэкапах. ZSTD быстрее, да, но вот эта спешка иногда оборачивается внезапными битыми архивами. Для продакшена стабильность важнее.

GEKKKO

Для надежности gzip вне конкуренции, zstd хоть и быстрый, но еще не проверенный временем

zstd интересен для архивов, где данные часто обновляются, но для статического контента gzip вполне хватает

gzip может быть стабилен, но его слабая степень сжатия бьёт по трафику на раздаче файлов, особенно в узлах с лимитированным выделенным IP каждому юзеру

Добавить комментарий

Докажите, что вы не робот. Выберите: подарок