Google celebra 25 años recordando sus hitos en inteligencia artificial

32

Google, el buscador más famoso, cumple hoy 25 años de vida y celebra recordando (no podía ser de otra forma) sus hitos en el campo de la inteligencia artificial, un tema que, desde noviembre del año pasado, luego de la irrupción en el mercado del chatbot de OpenAI llamado ChatGPT (que mereció una inversión multimillonaria de Microsoft), no ha parado de acaparar los titulares y las convenciones de las grandes compañías tecnológicas.

“Para Google (la inteligencia artificial) ha sido de gran importancia desde nuestros primeros días, y por una buena razón: tiene el poder de facilitar tus tareas rutinarias y ayudar a resolver grandes problemas de la sociedad. Mientras celebramos nuestro cumpleaños 25, queremos recordar algunos de nuestros mayores momentos con inteligencia artificial hasta ahora, aunque sin duda, esperamos tener logros aún mayores hacia adelante”, dijo la compañía en un comunicado.

La compañía surgida en Silicon Valley recordó que en 2001 incorporó aprendizaje automático para ayudar a los usuarios de la búsqueda de Google a corregir su ortografía. Entonces, el cofundador de Larry Page, dijo que “el motor de búsqueda perfecto debe entender exactamente lo que quieres decir y entregarte exactamente lo que necesitas”. Incluso si no lo escribes a la perfección, aun así podemos darte lo que necesitas, presumió la compañía en su 25 aniversario.

En 2006 se lanzó Google Translate, que usa aprendizaje automático para traducir idiomas automáticamente. “Comenzamos con traducciones de árabe a inglés e inglés a árabe, pero hoy admite 133 idiomas hablados por millones de personas alrededor del mundo. Esta tecnología puede traducir texto, imágenes o incluso una conversación en tiempo real, rompiendo las barreras del idioma en toda la comunidad global”.

En 2015 se lanzó TensorFlow, una biblioteca de código abierto desarrollada por Gooble que se utiliza para la creación y entrenamiento de modelos de aprendizaje automático y redes neuronales. “TensorFlow es ahora uno de los marcos de aprendizaje automático más populares y se ha utilizado para desarrollar una amplia gama de aplicaciones de IA, desde el reconocimiento de imágenes hasta el procesamiento del lenguaje natural y la traducción automática”, celebró la compañía californiana.

Un año después ocurrió uno de los eventos mundiales más importantes en el campo de la inteligencia artificial. Como parte del Google DeepMind Challenge Match, más de 200 millones de personas vieron en línea cómo AlphaGo se convirtió en el primer programa de IA en derrotar a un campeón mundial humano en Go, un complejo juego de mesa que antes se consideraba fuera del alcance de las máquinas.

“Esta victoria histórica demostró el potencial del aprendizaje profundo para resolver problemas complejos que antes se consideraban imposibles para las computadoras. La victoria de AlphaGo sobre Lee Sedol, uno de los mejores jugadores de Go del mundo, provocó una conversación global sobre el futuro de la IA y demostró que estos sistemas podrían aprender a dominar juegos complejos que requieren pensamiento estratégico y creatividad”, recordó Google.

Ese mismo año, 2016, Google presentó las unidades de procesamiento tensorial, o TPU, “que son chips de silicio diseñados a la medida que inventamos específicamente para el aprendizaje automático y optimizados para TensorFlow. Pueden entrenar y ejecutar modelos de IA mucho más rápido que los chips tradicionales, lo que los hace ideales para aplicaciones de IA a gran escala. La versión v5e, anunciada en agosto, es el TPU en la nube más rentable, versátil y escalable hasta la fecha”.

Un año después, en 2017, el artículo de investigación de Google Research “Attention Is All You Need” presentó el Transformer, una nueva arquitectura de red neuronal que ayudó a la comprensión del lenguaje. “Antes de Transformer, las máquinas no eran muy buenas para entender el significado de oraciones largas: no podían ver las relaciones entre palabras que estaban muy separadas. Transformer mejoró enormemente esto y se convirtió en la base de los sistemas de inteligencia artificial generativa y comprensión del lenguaje más impresionantes de la actualidad”.

Esta investigación sobre Transformer condujo a la introducción en 2019 del “Bidirectional Encoder Representations from Transformers” (Representaciones bidireccionales de codificadores a partir de Transformers), o BERT por sus siglas en inglés, que ayudó a mejorar los servicios de Búsqueda en el buscador de Google.  “En lugar de tratar de entender las palabras individualmente, nuestros algoritmos BERT ayudaron a Google a entender las palabras en contexto. Esto condujo a una gran mejora de la calidad en la Búsqueda y facilitó que las personas hicieran preguntas como lo harían naturalmente, en lugar de encadenar palabras clave”.

“En 2020, DeepMind dio un salto en el campo de la IA con su sistema, AlphaFold, que fue reconocido como una solución al ‘problema del plegamiento de proteínas’. Las proteínas son los componentes básicos de la vida, y la forma en que una proteína se pliega determina su función; una proteína mal plegada podría causar enfermedades. Durante 50 años, los científicos habían tratado de predecir cómo se plegaría una proteína para ayudar a comprender y tratar enfermedades. AlphaFold hizo exactamente eso”, presumió Google en el marco de su 25 aniversario.

“Luego, en 2022, compartimos 200 millones de estructuras de proteínas que cubren casi todos los organismos del planeta de los que se ha secuenciado su genoma, libremente con la comunidad científica a través de la base de datos de estructuras de proteínas de AlphaFold. Más de 1 millón de investigadores lo han utilizado para trabajar en una diversidad de cosas, desde acelerar nuevas vacunas contra la malaria en un tiempo récord y avanzar en el descubrimiento de fármacos contra el cáncer, hasta desarrollar enzimas que se alimentan de plástico”, añadió.

Los hitos más recientes de Google en el campo de la inteligencia artificial llegaron este año, justo al cumplir 25 años de vida. El primero fue el lanzamiento de Bard, un chatbot que compite con el ChatGPT de OpenAI y el Bing de Microsoft (potenciado por OpenAI). Al igual que ChatGPT, Bard es un sistema de inteligencia artificial generativa conversacional con el que las personas pueden interactuar mediante mensajes normales para generar respuestas.

Asimismo, este año Google presentó PaLM 2, un modelo de lenguaje de gran tamaño de próxima generación que ha mejorado las capacidades multilingües, de razonamiento y de codificación. “Es más capaz, más rápido y más eficiente que sus predecesores, y ya está impulsando más de 25 productos y funciones de Google, incluidas Bard, funciones de IA generativa en Gmail y Workspace, y SGE, nuestro experimento para integrar profundamente la IA generativa en la Búsqueda de Google”.

“Estas son sólo algunas de las innovaciones de inteligencia artificial que están permitiendo que muchos de los productos de Google sean usados por miles de millones de personas diariamente. Siempre de la mano de nuestros Principios de IA para guiarnos mientras adoptamos un enfoque audaz y responsable. Además, ya estamos trabajando en Gemini, nuestro próximo modelo creado para permitir futuros avances en nuestros siguientes 25 años”, destacó la compañía que este día cumple un cuarto de siglo de vida.