La informática da el gran salto hacia la computación cuántica

Hasta ahora, la informática que conocemos se ha basado en un principio poderoso: toda la información se puede reducir a unidades de información que son cajas que contienen un 1 o un 0 y que llamamos bits. Los textos, las imágenes, los sonidos y cualquier tipo de material digital en última instancia están construidos a través de esta forma de codificar los datos.

Sin embargo, con el progreso de la tecnología se trabaja cada vez con escalas más pequeñas y esa miniaturización llega ya hasta el tamaño de los átomos, donde se rompen las leyes de la física convencional para pasar a la física cuántica. En este terreno, un mismo elemento puede tener dos estados al mismo tiempo. Es decir, que el bit, que solo podía ser un 1 o un 0, puede ser ahora 1 y 0 a la vez, convirtiéndose en bit cuántico o qubit (del inglés quantum bit) y multiplicando la capacidad de cálculo hasta límites difíciles de imaginar.

La computación cuántica puede suponer un salto sin precedentes y aplicable a campos como la inteligencia artificial, la economía, la meteorología, las telecomunicaciones, la demografía y a casi todas las ciencias, ya que permitirá realizar simulaciones precisas sobre el comportamiento de un fármaco o una explosión nuclear, ahorrando la necesidad de materializar muchos experimentos.