Esto es lo que cubrió Google durante su evento AI@

Esto es lo que cubrió Google durante su evento AI@
El científico de investigación de inteligencia artificial de Google, Timnit Gebru, habla en el escenario durante el día 3 de TechCrunch Disrupt SF 2018 en el Moscone Center el 7 de septiembre de 2018 en San Francisco, California.

El científico de investigación de inteligencia artificial de Google, Timnit Gebru, habla en el escenario durante el día 3 de TechCrunch Disrupt SF 2018 en el Moscone Center el 7 de septiembre de 2018 en San Francisco, California.
Foto: kimberly blanco (imágenes falsas)

Un tema recurrente en el evento AI@ de Google fue uno de supuesta reflexión y cauto optimismo. Ese sentimiento sonó particularmente cierto en el tema de la ética de la IA, un área con la que Google luchó en el pasado y una crecientemente importante

en el mundo emergente de la IA generativa salvaje. Aunque Google promocionó sus propios principios de IA y equipos de IA de respuesta durante años, se ha enfrentado a fuertes críticas por parte de los críticos, particularmente después de disparo
múltiples investigadores de IA de alto perfil.

La vicepresidenta de investigación de ingeniería de Google, Marian Croak, reconoció algunos peligros potenciales presentados por las tecnologías que se exhibieron el miércoles. Esos incluyen temores en torno a una mayor toxicidad y sesgos aumentados por algoritmos, degradando aún más confiar en las noticias a través de falsificaciones profundas e información errónea que puede desdibujar efectivamente la distinción entre lo que es real y lo que no lo es. Parte de ese proceso, según Croak, implica realizar investigaciones que creen la capacidad de que los usuarios tengan más control sobre los sistemas de IA para que colaboren con los sistemas en lugar de dejar que el sistema tome el control total de las situaciones.

Croak dijo que creía que los Principios de IA de Google colocan a los usuarios y evitan daños y la seguridad “por encima de nuestras consideraciones comerciales típicas”. Los investigadores de IA responsables, según Croak, realizan pruebas contradictorias y establecen puntos de referencia cuantitativos en todas las dimensiones de su IA. Los investigadores que realizan esos esfuerzos son profesionales diversos y, según se informa, incluyen científicos sociales, especialistas en ética e ingenieros entre su mezcla.

“No quiero que los principios sean solo palabras en papel”, dijo Croak. En los próximos años, dijo que espera ver las capacidades de la IA responsable integradas en la infraestructura técnica de la empresa. La IA responsable, dijo Croak, debería estar “integrada en el sistema”.

Leave a Reply

Your email address will not be published. Required fields are marked *