Una de las ventajas de REST es la capacidad de almacenar en caché las solicitudes a través de cachés http tradicionales (suponiendo que se trata de solicitudes en caché).
Cuando tiene solicitudes individuales, más grandes, de uso menos frecuente y posiblemente diferentes (voy a buscar los elementos a,b,c,d
esta vez y los artículos a,b,d,e
la próxima vez) hará que sea más probable que la solicitud sea un error de caché. y caduque de un caché que pueda estar en algún lugar entre usted y la fuente.
Dados los dos conjuntos de solicitudes mencionados anteriormente, la segunda solicitud puede tener una tasa de 75% de caché hit y ser sustancialmente más rápida con solo e
, en lugar de las cuatro cosas.
Tenga en cuenta que esto puede no ser inmediatamente evidente para las personas que lo utilizan, ya que la persona que hace el primer conjunto de solicitudes de falta de caché seguirá teniendo fallas en el caché.
Esto no quiere decir que sería ideal en una conexión de red móvil donde es menos probable que se obtengan visitas de caché no locales. Pero para los puntos calientes u otras situaciones de wifi, los aciertos de caché podrían ser mucho más útiles.
Mucho de esto, nuevamente, está sujeto a cómo funciona su aplicación. ¿Está pidiendo todos estos datos al inicio? ¿o estamos hablando de una carga de página donde las expectativas de tiempo de respuesta son diferentes?
Lo ideal sería probar esto para ver cómo se realiza su aplicación en una variedad de situaciones. Considere configurar una situación en la que haya vinculado su dispositivo móvil a una red wifi local que puede monitorear (que es solo el primer hit en google) y simulando una mala conexión a internet para ver cómo funcionan las cosas (o no) y cuál tiene el mejor rendimiento.