Formato mas compacto
Comun en APIs, logs y sistemas que guardan Unix timestamp clasico.
Aprende la diferencia entre timestamps en segundos y milisegundos para evitar conversiones equivocadas.
La diferencia es pequena en apariencia y enorme en el resultado.
Comun en APIs, logs y sistemas que guardan Unix timestamp clasico.
Frecuente en JavaScript y sistemas que necesitan tiempo con mayor granularidad.
Eso desplaza la fecha y rompe validaciones o comparaciones.
Es el atajo mas simple para sospechar el formato.
Una fecha legible confirma o descarta la sospecha.
La documentacion o el sistema fuente suelen aclararlo.
Si es asi, normalizarlos cuanto antes evita errores posteriores.
Cuando lees milisegundos como si fueran segundos, o al reves, la fecha resultante se mueve por anos o incluso siglos.
APIs, SDKs y bases de datos no siempre documentan igual el formato, asi que conviene confirmarlo antes de usarlo.
Identificar el formato correcto te ahorra perseguir errores falsos de zona horaria o serializacion.
Como atajo, 10 suele indicar segundos y 13 suele indicar milisegundos.
Si la salida se ve imposible, probablemente estas usando la escala equivocada.
Logs, SDKs y APIs suelen tener una convencion concreta que vale la pena confirmar.
Una vez identificado el formato, trata de no mezclar ambas escalas en el mismo flujo.
JavaScript suele trabajar con milisegundos, mientras otras fuentes entregan segundos.
Algunas respuestas cambian de formato segun el lenguaje o el endpoint.
Tambien ocurre al comparar marcas de tiempo guardadas en sistemas distintos.
Casi siempre, pero conviene validar con el contexto y con una conversion real.
Normalmente trabaja con milisegundos en objetos Date y timestamps derivados de ellos.
Si la fecha resultante se ve demasiado antigua, futura o fuera de contexto, revisa la escala.
No. Primero debes confirmar la escala y luego revisar UTC vs local.
Pega el numero en el convertidor y compara ambos formatos antes de seguir trabajando con la fecha.