Google cumple este mes 25 años. Fundado el 27 de septiembre de 1998 por los universitarios Larry Page y Sergéi Brin, con una inversión inicial de 100,000 dólares aportados por el cofundador de Sun Microsystems, Andy Bechtolsheim, el gigante tecnológico ha evolucionado con mejoras en los resultados de búsqueda hasta adaptar la inteligencia artificial (IA).
El nombre procede de “Googol”, un término matemático que designa un 1 seguido por 100 ceros, que simboliza el objetivo de organizar la inmensa cantidad de información disponible en internet.
Desde sus inicios hasta hoy, Google tiene un gran reto: dominar la inteligencia artificial. Y ya lo está haciendo, prueba de ello es Bard, un sistema conversacional por IA que resulta una alternativa a ChatGPT. Puedes interactuar con este chatbot mediante mensajes convencionales, al estar basado en LaMDA, un potente modelo de lenguaje experimental.
Con motivo de su 25 aniversario, estos son algunos momentos históricos de Google en el uso de la inteligencia artificial:
LOS PRIMEROS LOGROS DE GOOGLE EN IA
MEJORAS ORTOGRÁFICAS
Larry Page alguna vez pronunció que “el motor de búsqueda perfecto debe entender lo que quieres decir y entregarte exactamente lo que necesitas”. En ese sentido, en 2001, Google dio un gran paso en el avance de esa visión cuando comenzó a usar una versión simple de aprendizaje automático para sugerir mejoras ortográficas en las búsquedas web. A la fecha, si escribes incorrectamente una palabra, arroja lo que deseas.
ACCESO A TODOS LOS IDIOMAS
Cinco años después, en 2005, surgió Google Translate, que usa el aprendizaje automático para traducir idiomas. Comenzó con traducciones de árabe a inglés e inglés a árabe, pero hoy admite 133 idiomas hablados por millones de personas alrededor del mundo. Esta tecnología puede traducir texto, imágenes o incluso una conversación en tiempo real. Lo anterior, rompe las barreras del idioma en toda la comunidad global, ayudando a las personas a comunicarse y ampliando el acceso a la información como nunca antes.
DEMOCRATIZAR LA IA
En 2015, la introducción de TensorFlow, un nuevo marco de aprendizaje automático de código abierto, hizo que la inteligencia artificial fuera más accesible, escalable y eficiente. Ayudó a acelerar el ritmo de la investigación y su desarrollo a escala global.
Actualmente, es uno de los marcos de aprendizaje automático más populares y se ha utilizado para desarrollar una amplia gama de aplicaciones de IA, desde el reconocimiento de imágenes hasta el procesamiento del lenguaje natural y la traducción automática.
LAS MÁQUINAS DE IA CONTRA EL CEREBRO HUMANO
DOMINIO EN JUEGOS QUE REQUIEREN PENSAMIENTO ESTRATÉGICO Y CREATIVIDAD
Como parte del Google DeepMind Challenge Match, más de 200 millones de personas vieron en línea cómo AlphaGo se convirtió en el primer programa de IA en derrotar a un campeón mundial humano en Go, un complejo juego de mesa que antes se consideraba fuera del alcance de las máquinas. Esta victoria histórica demostró en 2016 el potencial del aprendizaje profundo para resolver problemas difíciles, que antes se consideraban imposibles para las computadoras.
IA MÁS RAPIDA Y EFICIENTE
En ese mismo año, brillaron las unidades de procesamiento tensorial o TPU. Estos son chips de silicio que Google inventó específicamente para el aprendizaje automático y optimizados para TensorFlow. Pueden entrenar y ejecutar modelos de IA mucho más rápido que los chips tradicionales, lo que los hace ideales para aplicaciones de inteligencia artificial a gran escala.
REVOLUCIÓN DE LA ESCRITURA
En 2017, el artículo de investigación de Google Research “Attention Is All You Need” presentó a Transformer, una nueva arquitectura de red neuronal que ayudó a la comprensión del lenguaje. Antes de él, las máquinas no eran muy buenas para entender el significado de oraciones largas; no podían ver las relaciones entre palabras que estaban muy separadas.
Transformer se convirtió en la base de los sistemas de inteligencia artificial generativa y comprensión del lenguaje más impresionantes de la actualidad. Revolucionó lo que significa para las máquinas traducir, resumir textos, responder preguntas e incluso generar imágenes y la robótica.
PALABRAS EN CONTEXTO
La investigación sobre Transformers condujo a la introducción del “Bidirectional Encoder Representations from Transformers” (Representaciones bidireccionales de codificadores a partir de Transformers) o BERT. En lugar de tratar de entender las palabras individualmente, los algoritmos BERT ayudaron a Google a entender las palabras en contexto.
GOOGLE AYUDA EN LA CIENCIA
PLEGAMIENTO DE PROTEÍNAS
En 2020, DeepMind dio un salto en el campo de la IA con su sistema, AlphaFold, que fue reconocido como una solución al “problema del plegamiento de proteínas”. Durante 50 años, los científicos habían tratado de predecir cómo se plegaría una proteína para ayudar a comprender y tratar enfermedades. AlphaFold hizo exactamente eso.
Más de 1 millón de investigadores lo han utilizado para trabajar en una diversidad de cosas, desde acelerar nuevas vacunas contra la malaria en un tiempo récord y avanzar en el descubrimiento de fármacos contra el cáncer, hasta desarrollar enzimas que se alimentan de plástico.
SISTEMA CONVERSACIONAL
Para 2023 surge Bard. un sistema de inteligencia artificial creado por Google que trata de una herramienta conversacional. Está basado en modelos de lenguaje neuronal conversacional, concretamente LaMDA.
HACIA EL FUTURO
En mayo de este año, Google presentó PaLM 2, un modelo de lenguaje de gran tamaño de próxima generación que ha mejorado las capacidades multilingües, de razonamiento y de codificación. Es más capaz, más rápido y más eficiente que sus predecesores, y ya está impulsando más de 25 productos y funciones de Google, incluidas Bard, funciones de IA generativa en Gmail y Workspace, y SGE. Actualmente, están utilizando PaLM 2 para avanzar en la investigación interna sobre una infinidad de cosas, desde la atención médica hasta la ciberseguridad. N