El “cheat code” de Tesla para IA en chips de 8 bits: qué es real y qué es humo
En las últimas horas se ha viralizado un mensaje que atribuye a Tesla una supuesta “trampa matemática” capaz de hacer que hardware barato de 8 bits (INT8) ejecute con fidelidad operaciones típicas de 32 bits (FP32) usadas por modelos tipo Transformer. El texto, envuelto en un tono épico, lo conecta con conducción autónoma, “memoria” de contexto largo y con robots humanoides como Optimus. El problema no es solo el sensacionalismo: también mezcla conceptos reales (y muy relevantes) con afirmaciones que, tal y como están formuladas, inducen a error. Lo importante para el lector técnico no es si suena espectacular, sino qué parte encaja con el estado del arte y qué parte requeriría evidencia concreta (por ejemplo, el contenido verificable de