En un mercado de cloud dominado por los grandes hiperescalares, Backblaze ha decidido jugar una carta poco habitual: enseñar todas sus tripas. La compañía ha publicado su primer informe Performance Stats Q3 2025, un conjunto de pruebas sintéticas de rendimiento donde compara su servicio de almacenamiento Backblaze B2 con AWS S3, Cloudflare R2 y Wasabi Object Storage.
En paralelo, ha actualizado su ya clásico informe Drive Stats, con las tasas de fallo reales de los discos duros que alimentan su plataforma. Rendimiento y fiabilidad, todo en abierto, en un momento en el que muchas empresas se plantean cómo equilibrar coste, prestaciones y riesgo en la nube.
Pruebas de rendimiento en la nube: un “campo de juego nivelado”
Las pruebas de Performance Stats se han realizado con Warp, una herramienta de código abierto para medir el rendimiento de almacenamiento S3 compatible.
El escenario de test ha sido único y controlado:
- Máquina virtual Ubuntu alojada en Vultr, en la zona Nueva York / Nueva Jersey.
- Tráfico encaminado a las regiones de tipo US-East de cada proveedor.
- Mismas condiciones de red y configuración para todos.
- Pruebas de subida y bajada con archivos de 256 KiB, 5 MiB, 50 MiB y 100 MiB.
- Perfiles de cinco minutos, tanto en modo multi-thread como single-thread, repitiendo los tests para obtener medias estables.
El objetivo declarado es ofrecer una fotografía reproducible de cómo se comporta cada servicio desde el punto de vista de un cliente real, lejos de los benchmarks internos y poco transparentes que acostumbra a publicar parte del sector.
Subidas: Backblaze domina en ficheros pequeños, AWS en tamaños medios
La primera batería de pruebas mide el tiempo medio de subida de un archivo individual, en milisegundos. A menor cifra, mejor resultado. En este caso no se dispone de datos de Wasabi por restricciones de su propia plataforma durante los primeros 30 días de vida de la cuenta.
Tiempos medios de subida (ms)
| Proveedor | 256 KiB | 2 MiB | 5 MiB |
|---|---|---|---|
| Backblaze B2 | 12,11 | 116,38 | 268,28 |
| AWS S3 | 28,73 | 76,79 | 201,40 |
| Cloudflare R2 | 16,02 | 123,25 | 311,48 |
| Wasabi | – | – | – |
El titular es claro:
- Backblaze B2 es el más rápido con archivos pequeños (256 KiB), con solo 12,11 ms de media.
- AWS S3 toma la delantera con archivos de 2 MiB y 5 MiB, donde logra 76,79 ms y 201,40 ms respectivamente.
- Cloudflare R2 queda consistentemente por detrás en esta métrica puntual.
Estos datos son útiles para casos donde lo crítico es la latencia individual —por ejemplo, cargas interactivas desde aplicaciones web—, pero no cuentan toda la historia cuando se habla de mover grandes volúmenes de datos.
Throughput de subida multi-thread: Backblaze y Wasabi, muy fuertes en cargas continuas
Donde el informe se vuelve especialmente relevante es en las pruebas de throughput sostenido: cuántos MiB por segundo es capaz de subir cada servicio durante cinco minutos, utilizando subidas en paralelo.
Aquí, cuanto mayor es la cifra, mejor.
Throughput de subida multi-thread (MiB/s)
| Proveedor | 256 KiB | 5 MiB | 50 MiB | 100 MiB |
|---|---|---|---|---|
| Backblaze B2 | 163,80 | 573,30 | 1.738,90 | 2.554,50 |
| AWS S3 | 96,20 | 653,40 | 1.747,50 | 2.391,20 |
| Cloudflare R2 | 24,10 | 314,50 | 1.036,50 | 1.356,00 |
| Wasabi | 162,80 | 669,20 | 1.847,20 | 1.977,50 |
Algunas conclusiones clave:
- Para archivos muy pequeños (256 KiB), Backblaze y Wasabi están prácticamente empatados en cabeza, muy por encima de AWS y, sobre todo, de Cloudflare.
- En tamaños medios (5 MiB y 50 MiB), Wasabi destaca en throughput, con AWS y Backblaze siguiéndole muy de cerca.
- En el extremo de 100 MiB, Backblaze B2 marca la diferencia con 2.554,50 MiB/s, por delante de AWS y Wasabi.
- Cloudflare R2 se mantiene sistemáticamente en la parte baja de la tabla, especialmente penalizada en objetos pequeños.
Para workloads reales —como ingestión de logs, respaldo de bases de datos o subida de datasets para modelos de IA— estas cifras son más representativas que el tiempo de subida de un único archivo, ya que muestran la capacidad de cada servicio para aprovechar la paralelización.
Descargas: AWS domina en latencia, Backblaze brilla en descargas sostenidas
En el apartado de descarga de archivos, los resultados son más mixtos:
- En tiempos medios de descarga por archivo, AWS S3 lidera en todas las tallas, seguido de Backblaze B2 y con Cloudflare R2 como tercero.
- Cuando se mide el throughput sostenido multi-thread, Backblaze B2 gana para archivos de 256 KiB, 50 MiB y 100 MiB, mientras que AWS se impone ligeramente en 5 MiB.
- En las pruebas single-thread de descarga, Wasabi sorprende con el mejor resultado en 256 KiB, pero Backblaze se queda con el primer puesto en 5 MiB, 50 MiB y 100 MiB.
El informe dedica especial atención al TTFB (time to first byte), útil para entender la latencia inicial, pero recuerda que este valor por sí solo no basta para explicar la experiencia real: la ruta de red, las políticas de reutilización de conexiones o el uso de cachés pueden distorsionar esta métrica si se analiza aislada.
Metodología transparente y limitaciones reconocidas
Backblaze insiste en que sus pruebas son sintéticas y reproducibles, pero no una copia exacta de todos los escenarios de producción. Entre las limitaciones reconocidas se encuentran:
- Tráfico generado siempre desde una única región (NY/NJ hacia regiones US-East).
- Posibles efectos de caché en lecturas repetidas, pese a los esfuerzos por minimizarlos.
- Políticas de rate limiting o blacklisting por parte de algunos proveedores ante patrones de tráfico muy intensivos, como ocurrió puntualmente con Wasabi.
- Ausencia de pruebas en otros continentes y sin incluir de momento a gigantes como Google Cloud o Azure.
El valor añadido del informe no está tanto en presentar un “ranking definitivo” como en abrir la metodología y los datos, invitando a terceros a replicar o cuestionar los resultados.
Casos de uso: dónde encaja Backblaze según sus propios números
A partir de los benchmarks, Backblaze señala varios escenarios donde su combinación de latencia razonable y buen throughput le resulta especialmente favorable:
- Inferencia de IA y ML, donde el acceso rápido a modelos y artefactos puede reducir la latencia de respuesta.
- Feature stores y búsquedas de embeddings, típicas de bases de datos vectoriales para sistemas de recomendación y RAG, que manejan muchos objetos pequeños escritos una vez y leídos muchas veces.
- Sistemas de RAG (retrieval-augmented generation), que almacenan y recuperan fragmentos de documentos a alta velocidad para alimentar modelos de lenguaje.
- Analítica de logs y eventos (SIEM, IoT), donde se mezclan escrituras continuas y lecturas intensivas.
- Data lakes interactivos y origen para CDN, donde la consistencia del throughput y la ausencia de costes de salida pueden ser decisivas.
La compañía subraya que el rendimiento “ideal” depende tanto del proveedor como del diseño de la aplicación: saber que un servicio rinde mejor con objetos pequeños o grandes permite ajustar el particionado de datos para maximizar sus fortalezas.
Drive Stats Q3 2025: fiabilidad de discos en cifras
Más allá del rendimiento de red, Backblaze mantiene su tradicional informe Drive Stats, que recoge el comportamiento real de los discos duros que forman su nube. El snapshot del tercer trimestre de 2025 resume así el estado de la flota:
- Unidades de datos en producción: 328.348
- Días de funcionamiento acumulados en el trimestre: 29.431.703
- Fallos registrados en el trimestre: 1.250
- AFR trimestral (tasa de fallo anualizada): 1,55 %
Si se mira más atrás, los números de referencia son:
| Periodo | Días de unidad | Fallos | AFR |
|---|---|---|---|
| Q3 2025 | 29.431.703 | 1.250 | 1,55 % |
| Año 2024 | 101.906.290 | 4.372 | 1,57 % |
| Histórico | 527.372.275 | 18.953 | 1,31 % |
La tasa histórica se mantiene notablemente estable, en torno al 1,3 %, pese al crecimiento del parque y a la adopción de unidades de cada vez mayor capacidad. Destaca el aumento progresivo de discos de 20 TB o más, que ya superan las 67.000 unidades y representan cerca del 21 % de la flota.
El informe también menciona:
- Un “club de cero fallos” en el trimestre con cuatro modelos concretos (entre ellos, el Seagate ST8000NM000A de 8 TB y el Toshiba MG11ACA24TE de 24 TB).
- Tres modelos con AFR excepcionalmente altos, por encima del 5,88 %, identificados como outliers:
- Seagate ST10000NM0086 (10 TB), con 7,97 % y una edad media superior a 7 años.
- Seagate ST14000NM0138 (14 TB), 6,86 % y un historial de tasas de fallo elevadas.
- Toshiba MG08ACA16TEY (16 TB), con un 16,95 % ligado en parte a trabajos de firmware y mantenimiento, más que a fallos mecánicos masivos.
Cómo define Backblaze un “fallo” de disco
La transparencia del informe incluye la forma en que la compañía decide que un disco ha muerto a efectos estadísticos, algo menos trivial de lo que parece.
El proceso se mueve en tres capas:
- Monitorización de SMART y errores de lectura/escritura, con herramientas como smartmontools y un sistema interno llamado drive sentinel, que vigila errores irrecuperables y otros indicadores.
- Programa podstats, que recopila periódicamente los atributos SMART de cada unidad en cada Storage Pod y genera ficheros XML centralizados.
- Capa de ingeniería de datos, que cruza la información de SMART con tickets de sustitución en los centros de datos. Un disco se considera fallido si desaparece de los informes y aparece como unidad reemplazada en las tareas de mantenimiento, o si no regresa al pool tras un periodo razonable.
Este enfoque hace que algunos picos de AFR, como el de las unidades Toshiba sometidas a actualización de firmware, sean más “cosméticos” que reflejo de una degradación física real, algo que la propia compañía explica en el informe para evitar malas interpretaciones.
Qué significa todo esto para empresas y desarrolladores
El doble informe de Backblaze —rendimiento y fiabilidad— persigue un mensaje claro: en la nube no basta con mirar el precio por gigabyte ni con fiarse de un número aislado de latencia o de tasa de fallos.
Para equipos de datos, responsables de infraestructura o proyectos de IA, estos datos permiten:
- Comparar de forma más honesta Backblaze B2 con AWS, Cloudflare o Wasabi, al menos en un escenario controlado.
- Entender cómo se comporta cada proveedor según el tamaño de archivo y el patrón de acceso (single-thread vs multi-thread), algo crítico para workloads como RAG, data lakes o ingestión masiva de logs.
- Valorar la madurez operativa de un proveedor a través de sus cifras de AFR y de la forma en que gestiona outliers y campañas de mantenimiento.
En un momento en el que muchas organizaciones buscan alternativas a los hiperescalares para parte de sus cargas, datos como estos aportan contexto para tomar decisiones más informadas.
Preguntas frecuentes
¿Qué diferencias prácticas hay entre mirar tiempos medios de subida y throughput sostenido en la nube?
El tiempo medio de subida mide cuánto tarda en completarse un único archivo, y está muy influido por la latencia de red y la negociación inicial. El throughput sostenido indica cuántos MiB por segundo puedes mover de forma continuada durante varios minutos, aprovechando subidas en paralelo. Para copias de seguridad, ingestión de datos o entrenamiento de modelos de IA, el throughput suele ser más representativo que la latencia de un solo archivo.
¿Por qué Backblaze utiliza unidades en MiB en lugar de MB en sus pruebas de rendimiento?
El MiB (mebibyte) es una unidad basada en potencias de dos, equivalente a 1.048.576 bytes, mientras que el MB (megabyte) decimal se define como 1.000.000 bytes. En sistemas de almacenamiento y rendimiento, usar MiB evita ambigüedades y proporciona medidas más precisas, especialmente cuando se comparan velocidades y tamaños de archivo en entornos sensibles al rendimiento.
¿Qué tan fiable es Backblaze como proveedor de almacenamiento según los datos de Drive Stats Q3 2025?
Con una tasa de fallo anualizada del 1,55 % en el tercer trimestre de 2025, un AFR anual 2024 del 1,57 % y un histórico del 1,31 %, la flota de discos de Backblaze muestra una fiabilidad consistente a lo largo del tiempo. Además, el análisis de outliers y la explicación de picos puntuales de AFR —como el caso de ciertas unidades sometidas a actualización de firmware— indican un seguimiento activo de la salud de los discos y una política de sustitución estructurada.
¿En qué tipos de cargas de trabajo de IA y analítica encaja mejor Backblaze B2 frente a otros proveedores?
Los resultados de Performance Stats sugieren que Backblaze B2 es especialmente competitivo en lecturas y escrituras de objetos pequeños y en throughput sostenido en ficheros muy grandes, lo que lo hace interesante para inferencia de modelos, sistemas RAG, feature stores, analítica de logs y como origen de contenidos para CDN. En tamaños medios ciertos proveedores, como AWS o Wasabi, pueden ofrecer un rendimiento similar o superior, por lo que la elección final debería considerar tanto el patrón de acceso como el coste total de la solución.
vía: backblaze