El jefe de la división de Inteligencia Artificial de Google también está preocupado por los peligros que puede entrañar esta tecnología. No, no le preocupan que las máquinas puedan tomar el control como dice Elon Musk, sino más bien que tomen decisiones erróneas por no ofrecerles todos los datos que necesitan.
“La verdadera pregunta en torno a la seguridad, si se le quiere llamar así, es que si le damos a estos sistemas datos sesgados, ellos mismos estarán sesgados”, ha expuesto John Giannandrea en una conferencia en torno a la relación entre humanos e IA. Vamos, que si no les damos los datos suficientes como para que las máquinas entiendan los posibles contextos, estas estarán condenadas a ser injustas.
De hecho, ya os contamos que ya se están denunciando estas decisiones injustas por parte de los sistemas de IA, y que ya hay personas revelándose contra el delegar demasiado en los algoritmos. Además, el problema tiene el potencial para ir a más a medida que estas se vayan extendiendo a áreas especialmente delicadas como la medicina o el derecho.
Por lo tanto, parece que para el máximo responsable de IA en Google el problema no está tan afincado en el futuro como el de una posible rebelión de las máquinas, sino que es algo que parece estar empezando a pasar. Su receta para atajar el problema es la transparencia, y así lo indicó en su charla durante la conferencia.
“Es importante que seamos transparentes acerca de los datos de entrenamiento que estamos utilizando, y buscar prejuicios ocultos, de lo contrario estamos construyendo sistemas sesgados”, agregó Giannandrea. “Si alguien está tratando de venderte un sistema de caja negra para el apoyo a la decisión médica, y no sabes cómo funciona o qué datos se utilizaron para entrenarlo, entonces yo no confiaría en él”.
Pero Google no parece predicar con el ejemplo
Las palabras del jefe de la división de Inteligencia Artificial de Google tienen sentido, la transparencia es uno de los puntos clave, pero su empresa no parece predicar demasiado con el ejemplo en sus algoritmos. Lleva guardando celosamente el secreto de algoritmos como el de su buscador todos estos años, y aunque lo revisa con frecuencia, apenas ofrece información sobre qué parámetros influyen en que un resultado aparezca por encima de otro.
Y esta es una práctica que realizan muchas otras empresas líderes en tecnología con sus algoritmos, pues todos ellos tienen un “santo grial” que les hace aventajar a la competencia, una receta de la Coca-Cola en el mundo de Internet que no están dispuestos a liberar.
Esa actitud de hecho le da más fuerza a la tesis de Giannandre. Si diseñas una máquina que toma decisiones y te está dando dinero, lo más probable es que no expongas públicamente el algoritmo, sino que te guardes toda esa información para no perder tu ventaja ante la competencia. Y eso precisamente puede causar el problema, ya que la gente no sabrá hasta qué punto la información que alimenta esas decisiones es sesgada.