Nuevo marco de DeepMind para medir las capacidades de la IA: un paso más cerca de comprender la Inteligencia Artificial General.
Google DeepMind, liderado por el científico jefe de IA general, Shane Legg, ha propuesto un nuevo marco para clasificar los sistemas de Inteligencia Artificial General (IAG) y sus precursores. Este marco tiene como objetivo aportar más claridad al debate en curso sobre la IAG. Los investigadores analizan diversas definiciones de IAG y resaltan sus limitaciones, como el Test de Turing. Para proporcionar un marco más completo, proponen seis criterios para medir la inteligencia artificial, incluyendo el rendimiento y la generalidad. Los esfuerzos de DeepMind para desarrollar este marco contribuyen al viaje en curso de comprender la IAG y encontrar formas de cuantificar y evaluar sus atributos. Si bien el camino hacia la IAG sigue siendo incierto, este es un paso positivo en la dirección correcta.
Juan Brignardello, asesor de seguros, se especializa en brindar
asesoramiento y
gestión comercial en el ámbito de seguros y
reclamaciones por siniestros para destacadas empresas en el mercado peruano e internacional.
La Inteligencia Artificial General (AGI, por sus siglas en inglés) ha sido durante mucho tiempo objeto de debate entre los científicos, con opiniones divergentes sobre qué tan cerca estamos de lograrla. Algunos argumentan que la AGI aún está lejos, mientras que otros creen que podría surgir en la próxima década. Incluso hay quienes afirman que ya estamos presenciando los destellos de AGI en los modelos de lenguaje grandes (LLMs) actuales.
Para aportar más claridad a esta discusión, un equipo de científicos de Google DeepMind, liderado por el científico jefe de AGI, Shane Legg, ha propuesto un nuevo marco para clasificar los sistemas de AGI y sus precursores. Consideran que es crucial que la comunidad de investigación en IA reflexione sobre lo que realmente significa la AGI y cuantifique atributos como el rendimiento, la generalidad y la autonomía de los sistemas de IA.
Establecer una definición clara de AGI es uno de los principales desafíos. Los investigadores de DeepMind analizan diversas definiciones de AGI, como el Test de Turing y medidas económicas, para resaltar sus limitaciones. Pasar el Test de Turing, por ejemplo, no es suficiente para confirmar la AGI, como demuestran los modelos de lenguaje actuales. Determinar si las máquinas poseen atributos de conciencia sigue siendo esquivo. Fallar en ciertas tareas no necesariamente significa que un sistema no sea AGI, mientras que aprobarlas no garantiza el estatus de AGI.
Para proporcionar un marco más completo, los investigadores proponen seis criterios para medir la inteligencia artificial, incluyendo la profundidad y amplitud de la inteligencia. Presentan una matriz que mide el rendimiento y la generalidad, que va desde ninguna IA hasta una AGI superhumana. El rendimiento se refiere a cómo se comparan las capacidades de un sistema de IA con las de los humanos, mientras que la generalidad representa la amplitud de sus capacidades o la gama de tareas en las que sobresale.
Por lo tanto, aunque el camino hacia la AGI sigue siendo incierto, los esfuerzos de DeepMind por aclarar la discusión y proporcionar un marco para medir las capacidades de IA son sin duda un paso en la dirección correcta. Es un viaje en curso que implica reflexionar sobre la esencia de la AGI y encontrar formas de cuantificar y evaluar sus atributos.