Un tema recurrente en el evento AI@ de Google fue uno de supuesta reflexión y cauto optimismo. Ese sentimiento sonó particularmente cierto en el tema de la ética de la IA, un área con la que Google luchó en el pasado y una crecientemente importante
La vicepresidenta de investigación de ingeniería de Google, Marian Croak, reconoció algunos peligros potenciales presentados por las tecnologías que se exhibieron el miércoles. Esos incluyen temores en torno a una mayor toxicidad y sesgos aumentados por algoritmos, degradando aún más confiar en las noticias a través de falsificaciones profundas e información errónea que puede desdibujar efectivamente la distinción entre lo que es real y lo que no lo es. Parte de ese proceso, según Croak, implica realizar investigaciones que creen la capacidad de que los usuarios tengan más control sobre los sistemas de IA para que colaboren con los sistemas en lugar de dejar que el sistema tome el control total de las situaciones.
Croak dijo que creía que los Principios de IA de Google colocan a los usuarios y evitan daños y la seguridad “por encima de nuestras consideraciones comerciales típicas”. Los investigadores de IA responsables, según Croak, realizan pruebas contradictorias y establecen puntos de referencia cuantitativos en todas las dimensiones de su IA. Los investigadores que realizan esos esfuerzos son profesionales diversos y, según se informa, incluyen científicos sociales, especialistas en ética e ingenieros entre su mezcla.
“No quiero que los principios sean solo palabras en papel”, dijo Croak. En los próximos años, dijo que espera ver las capacidades de la IA responsable integradas en la infraestructura técnica de la empresa. La IA responsable, dijo Croak, debería estar “integrada en el sistema”.