Millisegundos en Java: Diferencia entre Windows y Linux

samharris
08 de Marzo del 2005
He estado desarrollando una aplicación applet-servlet en donde el applet realiza una consulta y el servlet responde con un juego de valores del tipo (dato,tiempo).

En este caso el dato de tiempo se envía en formato de milisegundos. El servidor está montado en Linux.

Cuando despliegas los datos enviados por el Servlet en Mozilla (Linux) no hay problemas, pues el tiempo de cada par de datos es consistente con la hora del servidor.

Pero cuando los despliegas en máquinas Windows (he probado en 2000 y xp) el dato de tiempo es interpretado con una diferencia de -360000 milisegundos, es decir que los datos se despliegan con un retraso de tiempo de una hora.

¿alguna Idea?

Por el momento sólo se me ocurre agregar un checkbox al applet para indicar si el sistema es Win o Linux y así ajustar la diferencia de tiempo.


ecdl
08 de Marzo del 2005
lo único que me suena, pero no estoy seguro es que en linux las fechas ocupan más que en windows, es decir, en linux las fechas son de 64 bits y en windows no sé cuanto ocupan pero ocupan menos, eso seguro, quizás estás cogiendo los milisegundos en un entero o algo así y necesitas más precisión