Как проверить скорость ведра s3, установленного через s3fs-fuse?

У меня есть s3 ресурс, установленный через [s3fs-fuse][1] и хотел бы запустить некоторые тесты скорости, чтобы сравнить пропускную способность DreamHost's DreamObjects против Amazon S3. Все установлено и работает просто отлично ( s3fs testbucket ~/mnt/test -o passwd_file=/path/to/passwd-s3fs -o url=http://objects-us-west-1.dream.io ), но традиционный тесты, такие как dd и hdparm просто не работают.

Любые рекомендации по успешной проверке скорости на блочном устройстве хранения в таком сценарии?

  • Как измерить диск и сеть IO чаще, чем секунду?
  • Duplicity + Amazon S3 Ледник. Сколько «размораживания» для возобновления резервного копирования
  • Управление заданиями в тире
  • Универсальная альтернативная альтернатива non-bash `time`?
  • Невозможно передать переменную bash в качестве аргумента python в bash
  • Поиск в корзине s3 с журналами
  • Как измерить диск и сеть IO чаще, чем секунду?
  • Универсальная альтернативная альтернатива non-bash `time`?
  • Управление заданиями в тире
  • Поиск в корзине s3 с журналами
  • Duplicity + Amazon S3 Ледник. Сколько «размораживания» для возобновления резервного копирования
  • Невозможно передать переменную bash в качестве аргумента python в bash
  • One Solution collect form web for “Как проверить скорость ведра s3, установленного через s3fs-fuse?”

    Обычно вы не можете использовать хранилище объектов для эмуляции блочного устройства. Есть s3backer, который может работать, но есть оговорки.

    Использование dd с s3fs должно работать. Я завершил набор тестов, сравнивающих s3fs / goofys / riofs как контейнер докеров: https://github.com/kahing/goofys/#runbenchmark . Должно быть просто изменить его для запуска в другом хранилище объектов.

    Linux и Unix - лучшая ОС в мире.