La Inteligencia Artificial, ahora con facultades de aprendizaje, ha resultado una herramienta excelente para el manejo de ciertas actividades, sin embargo, ahora Google advierte que el hecho de que las máquinas puedan aprender de los seres humanos podría ser un peligro, pues podrían aprender de los prejuicios humanos. El aprendizaje por tendencias es una realidad que podría dañar bastante el mundo si lo que se aprende son comportamientos tendientes al mal.
Hace unos meses se presentó el caso de una cuenta de Twitter llamada “Tay” de Microsoft que utilizaba algoritmos de aprendizaje por tendencias, el cual estaba creado para interactuar con los usuarios y aprender de sus interacciones en conversaciones informales para responder luego. Resulta que no le tomó ni un día en ser retirada, pues de su aprendizaje, Tay comenzó a emitir comentarios racistas, xenófobos, antisemitas y de odio generalizado.
“Esto es lo que aprendió de las interacciones humanas”, reflejó Microsoft disculpándose por los cometarios de su robot, señalando que aún se estudiaba como hacer “amables” a los robots y como enseñarles a pasar por alto este tipo de interacción.
Aprendizaje por tendencias: El temor de Google
John Giannandrea, responsable general de Google, expresó su preocupación por la creación de máquinas que usan algoritmos de aprendizaje y que están diseñadas para tomar decisiones; diciendo que “La real cuestión en cuanto a seguridad, si lo quieren llamar así, es que si le damos a estos sistemas tendencias humanas, entonces se parcializarán”.
“Es importante que seamos transparentes con el sistema de entrenamiento que estamos usando y busquemos tendencias escondidas (nocivas) dentro de ellos, de otra forma, estamos construyendo sistemas parcializados”, agregó Giannandrea.
“Si alguien trata de venderte una un sistema de caja negra para atención médica y no sabes cómo funciona o que datos están usando para entrenarlo, entonces no confíes en él”, explicó el ejecutivo.
Esto es, porque al tomar decisiones las máquinas sólo revisan su sistema interno para responder según lo aprendido. Si su aprendizaje no es acorde con tus necesidades entonces se encontrará tratando tus necesidades médicas con el conocimiento que tiene y esto puede traer serias repercusiones en la salud.
No todo es malo, el aprendizaje por tendencias tiene un enfoque positivo
Es cierto, la Inteligencia Artificial, así como los Sistemas de Caja negra están teniendo un impacto tremendo en la vida de las personas; en el aspecto médico y legal sobre todo, ya que hay máquinas que pueden ofrecer consejos legales según las jurisprudencias existentes, como COMPAS, uno de los sistemas Estado Unidenses que ya ha generado demandas y predicho contrademandas válidas en el sistema legal americano.
Este sistema de aprendizaje también se ha utilizado en redes sociales importantes como Facebook, que utiliza un algoritmo parecido para percibir tus interacciones sociales y conectarte con interacciones similares; este mismo tipo de algoritmos son utilizados por robots médicos para aprender del comportamiento de la enfermedad de las personas y generar un diagnóstico diferencial aprendiendo de los síntomas.
Giannandrea señaló que los riesgos que reposan sobre la nueva Inteligencia Artificial (con aprendizaje por tendencias) podrían hacer que en algún momento los robots consideren que los seres humanos son obsoletos, como nosotros lo hacemos cuando ya un sistema no funciona de manera efectiva. Sin embargo, añadió: “Entiendo por qué las personas están preocupadas por ello, pero pienso que aún tenemos mucho tiempo para corregir estos defectos, no existen bases tecnológicas para asumir que esto sucederá inminentemente.