Las computadoras deben empezar a procesar en la misma forma en que lo hace nuestro cerebro si esperamos poder manejar la avalancha de datos que cae sobre nosotros.
Existe una verdad inconveniente en la tecnología: la cantidad de datos crece de manera exponencial, mientras que los incrementos en la potencia de las computadoras son cada vez más lentos.
Alguien tiene que inventar una nueva forma de funcionamiento para las computadoras, que sea diferente de las computadoras electrónicas programables que han dominado el mercado desde la década de 1950. De otra manera, seremos rebasados por datos que no podemos usar o terminaremos construyendo centros de datos del tamaño de Rhode Island, los cuales consumirán tanta electricidad que necesitarán de sus propias centrales nucleares.
Y, hablando en serio, ¿acaso el mundo quiere que Google tenga capacidad nuclear?
La creciente brecha entre los datos y la computación explica por qué IBM declaró en julio que invertirá US$3000 millones en investigaciones sobre nuevos tipos de procesadores informáticos. También ayuda a explicar por qué D-Wave, una pequeñísima compañía canadiense que trabaja en la tecnología informática cuántica, la cual a primera vista parece tan plausible como hacer crecer tocino en los árboles, anunció una financiación de US$28 por parte de Goldman Sachs, Draper Fisher Jurvetson, la empresa de inversión de riesgos de Silicon Valley y el Banco de Canadá para el Desarrollo de Negocios.
Tarde o temprano, IBM, D-Wave o alguna otra empresa de reciente creación inventará la versión informática de un jet, y de repente, todas las otras computadoras del mundo parecerán trenes.
La explosión de los datos ya es una noticia vieja. Ponga a 3000 millones de personas en internet, mezcle con una tremenda producción de aplicaciones móviles y sensores incorporados en todas las áreas, y agite. Obtendrá un brebaje que genera tantos datos que la nomenclatura para denominar las cantidades parece haber sido tomada del Dr. Seuss. Los zettabytes de hoy se convierten en los yottabytes de mañana, y pasado mañana tendremos, quizás, blumbloopabytes.
Esto estaría bien si las computadoras pudieran aguantar el ritmo y procesar los crecientes flujos de datos de manera oportuna. Pero no es así. Uno de los problemas reside en los chips informáticos que llevan a cabo todo el procesamiento. Durante 50 años, los tecnólogos han sido despiadadamente capaces de hacer que los chips sean cada vez más pequeños, densos y rápidos. La Ley de Moore, que funciona más como una sugerencia que como una ley incontrovertible de la naturaleza, señala que el desempeño de los chips podía duplicarse aproximadamente cada 18 meses. Mientras esto fue así, el hardware informático se mantuvo a la vanguardia, siendo capaz de cualquier cosa que deseáramos que las computadoras pudieran hacer.
Pero hemos encogido los chips hasta casi alcanzar su límite físico, y algunos miden tan solo unos cuantos átomos de ancho. Si los chips no pueden ser más pequeños y más densos, las computadoras no pueden volverse más rápidas y más poderosas al ritmo al que estamos acostumbrados. Y en este punto, si los chips se vuelven mucho más pequeños y más densos, desaparecerán.
El otro problema es la arquitectura fundamental de prácticamente todas las computadoras de hoy, una arquitectura descrita por primera vez en la década de 1950 por el matemático John von Neumann. En la arquitectura de von Neumann, los programas informáticos y los datos se almacenan por separado, y los programas atraen los datos y los procesan, siguiendo instrucciones paso por paso, como una ecuación matemática lineal.
Las computadoras pueden seguir esas instrucciones en nanosegundos, pero todavía lo hacen paso por paso, lo cual se ha convertido en una desventaja conocida como el cuello de botella de von Neumann. Si los chips ya no pueden ser más rápidos, y la cantidad de trabajo que las computadoras deben realizar es cada vez mayor, la única forma de abordar los cada vez mayores problemas de datos con computadoras programables de tipo von Neumann será construir más computadoras y centros de datos cada vez más grandes.
La arquitectura en serie de las computadoras no se parece en nada (y es mucho menos eficiente) que la arquitectura del cerebro. Un cerebro almacena los datos y las instrucciones juntos, y se reprograma constantemente (es decir, aprende). Procesa enormes cantidades de cosas al mismo tiempo en lugar de hacerlo en serie, todo ello a través de un hilo de energía eléctrica. Incluso von Neumann reconoció y escribió, justo antes de morir, acerca del contraste entre su arquitectura y la arquitectura del cerebro, y sugirió que las futuras computadoras tendrían que funcionar en una forma más semejante al cerebro.
Una buena parte de la inversión de US$3000 millones de IBM se empleará en el desarrollo de chips y arquitectura inspirados en el cerebro. La compañía ha financiado investigaciones en esa área durante varios años, participando en un imponente proyecto denominado SyNAPSE (Systems of Neuromorphic Adaptable Scalable Electronics, sistemas de equipo electrónico neuromórfico escalable y adaptable), financiado por el ejército de Estados Unidos. Algunas otras compañías y universidades también participan en SyNAPSE.
El objetivo establecido por SyNAPSE es un chip que pueda actuar como un cerebro con 100 millones de neuronas. Eso crearía un chip que estaría en un lugar intermedio entre el cerebro de una rata, con sus 55 millones de neuronas, y el cerebro de un gato, con sus 760 millones de neuronas. Y esto está aún muy lejos del cerebro humano, que posee 20 000 millones de neuronas, menos las pérdidas producidas por las borracheras de tequila en Puerto Vallarta. Aunque esta tal vez sea solo mi excusa.
D-Wave persigue una solución diferente al cuello de botella de von Neumann. Existen laboratorios en todas partes del mundo que trabajan en informática cuántica. D-Wave es una de las pocas compañías que prometen comercializarla. La idea básica es usar las extrañas propiedades de la física cuántica para lograr que los átomos realicen cálculos. Una docena de átomos en una computadora cuántica serían más poderosos que la supercomputadora más grande del mundo.
Todo esto es muy prometedor, pero hay un problema básico con las computadoras cuánticas y con aquéllas inspiradas en el cerebro: todavía son proyectos de laboratorio. El prototipo de la computadora cuántica de D-Wave podría no ser tan cuántico, al igual que Batman no podría ser un superhéroe pues realmente no tiene superpoderes. El proyecto SyNAPSE está aún a muchos años de igualar el cerebro de una rata. Los matemáticos aún no saben cómo escribir algoritmos que aprovechen el procesamiento simultáneo que nos prometen las computadoras cuánticas y cognitivas. John Kelly, jefe de investigación de IBM, suele decir que, con base en el trabajo científico de la actualidad, las computadoras verdaderamente cognitivas y cuánticas se harán realidad antes de lo esperado, pero aún hablamos de otra década o más.
Mientras tanto, si las líneas de tendencia de datos y poder informático continúan en sus direcciones actuales, podíamos terminar atestados de datos, o enterrados bajo centros de datos. China construye un centro de datos que es tres veces más grande que cualquiera que existe en Estados Unidos. Será tan grande como el Pentágono.
No pasará mucho tiempo antes de que se construya uno de estos grandes consumidores de energía del tamaño de Rhode Island.