lunes, 21 de enero de 2013

Ensaya con Ciencia: Mi próximo y último Laptop


Autor: Claudio Castillo


Cuando paso por la tienda Falabella Lyon en el segundo piso tienen una colección respetable de laptops, suelo ir a tocar los modelitos más prometedores. Me hago el loco para evitar a los importunos vendedores. Debo reconocer que me gusta la tecnología hecha por los amigos asiáticos y los modelos más caros que no estoy dispuesto a pagar.

Todo es bastante distinto ahora. La primera que vez que ocupe uno fue a mediados de los 90's, para ser sincero me dejo bien impactado. Yo de niño ocupaba un Atari conectado a una “tele” blanco y negro y estar ocupando esto otro, no era rozar el futuro, era de verdad estar en él. Solo casi ocho años después pude acceder a tener el mío.

Una de las cosas que más me llama la atención de estos aparatitos, es lo rápido que quedan obsoletos. Lo que de pasada hace que sean una pésima inversión económica. Difícilmente usted podrá vender uno si tiene más de tres o cuatro años de uso, es cosa de navegar en www.mercadolibre.cl para corroborarlo.


¿Por qué esto de la obsolescencia?

En la mayoría de los casos no sucede nada extraño, los requerimientos en términos brutos de cómputo aumentan vertiginosamente. Mientras más fantásticas las aplicaciones, sencillamente más cómputo requieren. En concreto quedar obsoleto es consecuencia de la Ley de Moore.

En el mundo de la computación es muy conocida la ley empírica llamada la Ley de Moore. El señor Moore tuvo una revelación por el año 1965 y afirmó que la capacidad de cómputo se duplicaría cada 18 meses a costos cada vez decrecientes, sorprendentemente con ciertas reformulaciones menores eso se ha cumplido hasta ahora casi cincuenta años después.

Moore estaba súper consciente que toda la electrónica y por ende la computación, está basada en un componente fundamental(el transistor), y vio un futuro donde este artilugio podría ser progresivamente miniaturizado e integrado a gran escala en un circuito sin perder ninguna de sus características. “Very Large Scale Integration” como pomposamente lo llaman los gringos.

Moore que dicho sea de paso, es Phd, cofundador de Intel y además uno de sus presidentes en los 70's, merece todo nuestro respeto. Pero su su ley, su ley, ¡no es una ley de la naturaleza! y dejará de ser válida mas temprano que tarde.

La bonanza computacional que disfrutamos ahora es explicable porque donde hace cuarenta años era posible "instalar" doscientos transistores por milímetro cuadrado, en ese espacio, ahora perfectamente se pueden acomodar un poco más de un millón de ellos. Lamentablemente la física es implacable en esto. Dado un espacio determinado no se podrá aumentar la densidad de estos transistores hasta el infinito.

En los 80's otros entes iluminados repararon en este problema, entre ellos el intelectualmente intrépido Seth Lloyd (un brillante tipo del MIT) y se dio cuenta que en tecnología no se pueden predecir demasiadas cosas concretas. No sabemos cual va a ser la “papita” exitosa del próximo año.
Con excepciones notables claro, como la del célebre Steve Jobs. Un visionario, mercader y dictador tecnológico que dejó mas viudas que el mismo Bielsa, en fin que en paz descanse.

Así, Lloyd se pregunto:

"¿Cual es limite de la computación al menos a un nivel teórico?"

Esta pregunta lo inquieto durante mucho tiempo y a la vez, lo dejo razonablemente fuera de la manera en que piensan los mercenarios del cómputo de siempre (Intel, AMD) y sin duda los nuevos (Cortex, Apple, Qualcomm)

Su razonamiento fue bien sencillo y se planteó una situación hipotética, que es más o menos la siguiente:

Como los computadores son finalmente un sistema físico y por consecuencia no pueden ir contra sus leyes, se preguntó finalmente cuánto poder de cómputo se puede lograr en una masa y volumen que ocupa un laptop, y lo definió en un kilogramo de masa confinada a un volumen de un litro.

Lloyd de pasada le “tiro la cadena” al transistor y echó mano a lo último que se sabe acerca de la mecánica y computación cuántica, que a muy alto nivel se puede resumir en que los átomos(¡sí, átomos!), son perfectamente manipulables para:

· Almacenar un estado tipo ON/OFF (0,1 a lo Matrix).

· Operar con ellos para ejecutar/calcular operaciones de la lógica tradicional.

Ambos requisitos básicos de la computación moderna.

El fundamento físico que posibilita pensar en esta modalidad de computación es el mismo que se ocupa cuando se le efectúa una resonancia magnética a las articulaciones de los jugadores caros del "Colo Colo" o la "U" antes de contratarlos y para descartar los "gatos por liebre" por parte de sus "representantes".

Estos mecanismos y técnicas basados en modificar el spin del átomo, no es una cosa trivial pero es algo conocido y perfeccionable.


Según Lloyd:

Este laptop literalmente 'atómico' y bacán debería ser capaz de transformar toda su energía en transiciones atómicas que representen datos y realice calculos, y como existe una métrica promedio real de energía usada por transición y está claro cuánta energía representa un kilogramo de masa en las dimensiones consideradas. Ese cálculo bruto se puede efectuar en forma concreta y su resultado entrega las operaciones por segundo de este artefacto teórico.

Lloyd trabajo en esto y profundizó acerca de las premisas y algunas consideraciones para fundamentar su razonamiento, las que si bien tienen críticas no opacan el orden de magnitud final que muestran sus resultados,

¿Cuál es el límite físico finalmente?

La verdad es demasiado abrumador, el resultado para este laptop teórico es

5.4258 x 10 ^ 50 operaciones por segundo.

aproximadamente este número

"100000000000000000000000000000000000000000000000000"

lo que es algo así como 100 billones de billones de billones de billones de operaciones por segundo.

el mismo Lloyd calculo que para un cristiano normal eso era equivalente a 100 millones de laptops "reales" hace unos seis años atrás, cifra que por cierto a la fecha sigue estando en ese mismo orden.

Es increíble. Extendiendo el experimento a la masa de un modesto granito de sal igualmente resulta un número de operaciones fenomenal.

(hay alrededor 100 millones de granitos de sal en un paquete de Sal fina Lobos, no haga el intento yo ya lo averigue por usted).

Así, todos los requerimientos computacionales de cálculo de Google, de Facebook, de Youtube y por lo señalado podrían ser perfectamente satisfechos manipulando a conveniencia la masa y estados atómicos de un cubo de azúcar.

Las motivaciones de Lloyd por mostrarnos esto son en realidad muchísimo más profundas, al igual que el no muy querido Stephen Wolfram (el inventor del software Mathematica y el buscador Wolfram Alpha), Lloyd cree en un universo que espontáneamente calcula para generar nuestros espacios de realidad, una idea también relacionada al muy generoso y queridísimo premio Nobel de Física el señor Richard Feynman.

Nada mas que agregar, como la física no miente, cualquier cosa de Falabella Lyon en realidad ya no tiene sentido.

Los progresos de los mercaderes de la computación ahora de verdad me tienen sin cuidado, en serio. 




8 comentarios:

  1. Todo poder conlleva una gran responsabilidad (wena spiderman), y asi como Don Richie se mando la Bomba Atomica, quizas donde iremos a parar con la cantidad de calculos en un cubo de azucar.....ESO es lo pior!!

    ResponderEliminar
  2. Lo mejor es que da lo mismo donde vayamos a parar.

    ResponderEliminar
  3. interesante y reflexivo a la vez.

    ResponderEliminar
  4. Me quede con una duda, creo que Gordon Moore por alla por el 65 en un principio habia dicho que la capacidad de computo se duplicaria cada 12 meses, y luego por el 75 se corrigió y postulo que seria cada 24 meses, tienes la fuente donde de los 18 meses que dices tú

    saludos

    ResponderEliminar
  5. Este comentario ha sido eliminado por el autor.

    ResponderEliminar
  6. Hola Israel, tienes razon cuando redacte no fue muy claro asi que vamos a la referencia concreta
    Moore senalo originalmente que la cantidad de transitores se duplicaria cada a#o (que es lo que generalmente se ense#a pero ya no es valido)
    House un ejecutivo de Intel empiricamente noto que esto pasaba cada 18 meses por esos tiempos (previo al 75), y se penso
    que el mismo Moore *lo dijo pero no* lo dijo House.

    y se supone luego ahi no lo tengo claro si el mismo Moore recalibro oficialmente en un periodo bianual en 1975 bueno lo dice en la entrevista abajo en las referencias,
    ya para el 2010 se supone que el periodo es cada 36 meses.

    http://download.intel.com/museum/Moores_law/Video-transcripts/excepts_a_Conversation_with_gordon_Moore.pdf

    http://news.cnet.com/2100-1001-984051.html

    http://en.wikipedia.org/wiki/Moore's_law

    "Moore's Law to roll on for another decade". Retrieved 2011-11-27. "Moore also affirmed he never said transistor count would double every 18 months, as is commonly said. Initially, he said transistors on a chip would double every year. He then recalibrated it to every two years in 1975. David House, an Intel executive at the time, noted that the changes would cause computer performance to double every 18 months."

    Hay otro punto tambien importante en esta estimaciones que salen cada cierto tiempo pues nunca esta claro si la capacidad de computo se refiere a la realmente lograda por la industria en algun sector (por ejemplo lo mas avanzado del momento), o si es la capacidad de computo que observa la gente en sus dispositivos de consumo(computacion de escritorio y/o gadgets en general) que todos se#alan que esta 3-5 a#os desfasada respecto a lo experimental/vanguardia.
    ,los benchmarks en general no son demasiado claros y aunque sea sorprendente no colocan claramente la familia de procesadores probados/comparados.

    Finalmente
    hace ya un tiempo como te has dado cuenta en realidad mas que el computo bruto una directriz de la industria es la portabilidad y el logro de niveles aceptables de procesamiento vs la energia utilizada (por todo el mercado movil y la autonomia de horas),
    y tambien no hay mono procesadores si no mas bien arreglos multi core dual-quad-hexa-octa que un poco desvirtuan el razonamiento original de Moore ya que lo logran computo a traves de un paralelismo oculto al usuario final, so.. el aumento de computo no esta relacionado directamente al aumento de densidad del numero de componentes electronicos en el chip.

    Israel gracias por tus correciones, gracias por leer el articulo.

    Saludos

    ResponderEliminar