La exageración en torno al nuevo modelo de inteligencia artificial de DeepMind pierde lo que realmente es genial al respecto

La exageración en torno al nuevo modelo de inteligencia artificial de DeepMind pierde lo que realmente es genial al respecto

“La naturaleza está tratando de decirnos algo aquí, que es que esto realmente no funciona, pero el campo cree tanto en sus propios recortes de prensa que simplemente no puede ver eso”, agrega.

Incluso los colegas de DeepMind de De Freitas, Jackie Kay y Scott Reed, que trabajaron con él en Gato, fueron más circunspectos cuando les pregunté directamente sobre sus afirmaciones. Cuando se les preguntó si Gato se dirigía hacia AGI, no respondieron. “En realidad, no creo que sea factible hacer predicciones con este tipo de cosas. Trato de evitar eso. Es como predecir el mercado de valores”, dijo Kay.

Reed dijo que la pregunta era difícil: “Creo que la mayoría de las personas dedicadas al aprendizaje automático evitarán cuidadosamente responder. Es muy difícil de predecir, pero, ya sabes, con suerte llegaremos allí algún día”.

En cierto modo, el hecho de que DeepMind llamara a Gato un “generalista” podría haberlo convertido en víctima de la exageración exagerada del sector de la IA en torno a AGI. Los sistemas de inteligencia artificial de hoy en día se denominan “estrechos”, lo que significa que solo pueden realizar un conjunto específico y restringido de tareas, como generar texto.

Algunos tecnólogos, incluidos algunos de DeepMind, creen que algún día los humanos desarrollarán sistemas de inteligencia artificial “más amplios” que podrán funcionar tan bien o incluso mejor que los humanos. Aunque algunos llaman a esto inteligencia general artificial, otros dicen que es como “creer en la magia”. Muchos de los principales investigadores, como el científico jefe de IA de Meta, Yann LeCun, pregunta

si es posible en absoluto.

Gato es un “generalista” en el sentido de que puede hacer muchas cosas diferentes al mismo tiempo. Pero ese es un mundo aparte de una IA “general” que puede adaptarse significativamente a nuevas tareas que son diferentes de las que se entrenaron en el modelo, dice Andreas del .: “Todavía estamos bastante lejos de poder hacer eso”.

Hacer modelos más grandes tampoco resolverá el problema de que los modelos no tienen un “aprendizaje permanente”, lo que significaría que si se les enseña algo una vez, entenderían todas las implicaciones y lo usarían para informar todas las demás decisiones que toman, dice.

La exageración en torno a herramientas como Gato es perjudicial para el desarrollo general de la IA, argumenta Emmanuel Kahembwe, investigador de IA y robótica y parte de la organización Black in AI cofundada por Timnit Gebru. “Hay muchos temas interesantes que se dejan de lado, que no cuentan con fondos suficientes, que merecen más atención, pero eso no es lo que les interesa a las grandes empresas tecnológicas y al grueso de los investigadores de dichas empresas tecnológicas”, dice.

Las empresas tecnológicas deberían dar un paso atrás y hacer un balance de por qué están construyendo lo que están construyendo, dice Vilas Dhar, presidente de la Fundación Patrick J. McGovern, una organización benéfica que financia proyectos de IA “para siempre”.

“AGI habla de algo profundamente humano: la idea de que podemos llegar a ser más de lo que somos, construyendo herramientas que nos impulsen a la grandeza”, dice. “Y eso es realmente bueno, excepto que también es una forma de distraernos del hecho de que tenemos problemas reales que enfrentamos hoy y que deberíamos tratar de abordar utilizando IA”.

Leave a Reply

Your email address will not be published. Required fields are marked *