Estoy confundido acerca de por qué nos importan las diferentes representaciones del cero positivo y negativo.
Recuerdo vagamente las afirmaciones de lectura de que tener una representación negativa de cero es extremadamente importante en la programación que involucra números complejos. Nunca tuve la oportunidad de escribir código con números complejos, así que estoy un poco desconcertado acerca de por qué este sería el caso.
artículo de Wikipedia sobre el concepto no es especialmente útil; solo hace declaraciones vagas sobre el cero firmado, lo que hace que ciertas operaciones matemáticas sean más simples en coma flotante, si lo comprendo correctamente. Esta respuesta enumera un par de funciones que se comportan de manera diferente, y tal vez se pueda deducir algo de los ejemplos si está familiarizado con cómo podrían ser utilizados. (Aunque, el ejemplo particular de las raíces cuadradas complejas parece totalmente incorrecto , ya que los dos números son matemáticamente equivalentes, a menos que tenga un malentendido). Pero no he podido encontrar una declaración clara del tipo de problemas que se metería si no estuviera allí. Los recursos más matemáticos que he podido encontrar indican que no hay distinción entre los dos desde una perspectiva matemática, y el artículo de Wikipedia parece sugerir que esto rara vez se ve fuera de la computación, aparte de describir los límites.
Entonces, ¿por qué un cero negativo es valioso en la computación? Estoy seguro de que me estoy perdiendo algo.