A medida que la IA sigue creciendo, la startup Anthropic quiere que otras personas inventen herramientas para medir si la IA es segura o amenazante.

A medida que la IA sigue creciendo, la startup Anthropic quiere que otras personas inventen herramientas para medir si la IA es segura o amenazante.


Para garantizar la seguridad de la inteligencia artificial, Anthropic otorga subvenciones a terceros para desarrollar “puntos de referencia” que puedan evaluar la efectividad y los peligros potenciales de los nuevos modelos de IA.