Publicidad
Experto español en inteligencia artificial advierte sobre amenaza a la privacidad CULTURA

Experto español en inteligencia artificial advierte sobre amenaza a la privacidad

Ramón López de Mantarás estuvo en Chile en la Conferencia de Cultura Científica de la U. Andrés Bello. En una charla con el programa televisivo «Sello propio» de El Mostrador, además desmiente el mito de la destrucción de puestos de trabajo y explica cómo aprenden actualmente las máquinas, incluido el fenómeno del «olvido catastrófico».


Sobre los mitos y peligros de la inteligencia artificial habló recientemente en Chile el destacado experto español Ramón López de Mantarás.

El director del Instituto de Investigación en Inteligencia Artificial (IIIA) de España vino para participar en la Conferencia Internacional de Cultura Científica 2018, organizada este mes por la Universidad Nacional Andrés Bello.

Entrevistado por el programa de televisión «Sello propio» de El Mostrador, el profesional explicó –entre otros conceptos, como el «olvido catastrófico»– las áreas de aplicación de la inteligencia artificial (IA), su impacto en el mercado laboral y los problemas que genera en ámbitos como la privacidad.

«Actualmente la IA es mucho más limitada de lo que parece, y mucho menos inteligente y capacitada que un ser humano», anticipa.

Áreas de aplicación

Mantarás confirma, desde ya, que la IA se está aplicando a todos los sectores y problemas, como los juegos, pero también la gobernanza e incluso la economía, como cuando se trata de optimizar modelos para hacer predicciones.

«La medicina es uno de los sectores donde históricamente se ha trabajado más y donde últimamente se están viendo progresos importantes en cuanto al diagnóstico basado en imágenes», destaca. Allí la IA funciona bien a la hora de detectar tumores cancerosos en imágenes médicas, en radiografías y en resonancia magnética, por ejemplo.

[cita tipo=»destaque»]Una máquina puede ser entrenada para, por ejemplo, distinguir entre gatos y perros. Sin embargo, cuando luego de esto es entrenada en otra tarea, por ejemplo, jugar ajedrez, olvida el aprendizaje anterior. «A eso lo llamamos el ‘olvido catastrófico’, porque cada tarea nueva que aprende, hace que se olvide de la anterior. Ese es un problema que todavía no está resuelto. Se está investigando, se están haciendo mejoras, para que al menos no olvide completamente todo. Ese es un problema enorme de los sistemas de aprendizaje en inteligencia artificial».[/cita]

«Creo que la medicina será cada vez más un campo de aplicación muy importante para la IA», afirma. «Veremos grandes progresos que nos ayudarán a hacer realidad eso que conocemos como la medicina personalizada: poder hacer un diagnóstico muy ajustado a las características de una persona concreta. No aplicar soluciones genéricas a todas las personas, porque cada persona es distinta».

También señala que veremos cada vez más aplicaciones en todo lo que tiene que ver en las empresas con la toma de decisiones, y en temas de logística y transporte.

«Cambiará el concepto de movilidad con los futuros coches autónomos, que sin la IA son inviables», afirma. «Es básico que el coche sea capaz de aprender y adaptarse. Coches distintos funcionarán en países distintos con características distintas. El coche deberá tener una capacidad de adaptación a su entorno, porque salen todos de una misma fábrica, pero van destinados a países distintos del mundo, con zonas rurales o urbanas, o ambas a la vez».

El futuro del trabajo

Por otra parte, para el especialista el impacto en el mercado laboral está siendo cada vez más importante.

«No es algo nuevo. Ya desde la revolución industrial, hace 150 años, hubo un impacto grande, desplazando puestos de trabajo que la gente hacía, que desaparecieron, y fueron sustituidos por nuevos puestos de trabajo. El problema que nos distingue con anteriores revoluciones industriales es que la actual va a gran velocidad. Y la velocidad es lo que preocupa más», subraya.

Eso plantea problemas inéditos, en sus palabras, porque había mucho más tiempo de adaptación, de preparar a la población, formándola para nuevas tareas y nuevos puestos de trabajo.

«Ahora, dada la velocidad, no es posible, aparentemente, formar para nuevos puestos de trabajo, muchos de los cuales ni siquiera sabemos cuáles son. ¿Cómo vamos a formar a una gran parte de la masa trabajadora para hacer cosas que no sabemos cuáles serán? ¿Qué habilidades van a requerir? Hay un problema importante arriba de la mesa», admite.

Sin embargo, no es pesimista, porque, más que sustitución de puestos de trabajo, él prefiere hablar de la sustitución de ciertas actividades dentro de un puesto de trabajo. «Según se ha analizado, un puesto de trabajo tiene entre 20 y 30 tareas dentro. Un porcentaje relativamente pequeño de estas tareas sí que será automatizado seguro, pero el resto no».

Aumentar capacidad humana, no sustituirla

«Por eso se habla ahora de aumentar las capacidades humanas, no de sustituirlas. Hacer lo que se llama la siombiosis persona-máquina, que trabajen colaborativamente para que el resultado sea mejor que trabajando los dos por separado. Se produce una mejora del puesto de trabajo, donde el ser humano hace lo que puede mejor, la empatía, la socialización, creatividad, adaptación».

«La máquina hará las actividades más rutinarias, no solo manuales, sino también a nivel administrativo, por ejemplo. La contabilidad, por ejemplo, la harán cada vez menos las personas. Aunque es un trabajo intelectual y cognitivo, tiene mucha repetición, y esas actividades las sustituirán las máquinas. Entre los abogados, por ejemplo, tareas como buscar casos anteriores similares a uno presente que se deba analizar –una búsqueda de información que es un proceso muy repetitivo–, las máquinas ya lo pueden hacer muy bien. Es un ejemplo de las tareas que son automatizables. El impacto es por ahí», puntualiza.

Sin embargo, insiste en que la IA no ha podido ser entrenada para situaciones excepcionales e imprevistas, un área donde los seres humanos seguirán siendo mucho mejores que la máquina.

«Hay que ver qué aspectos los hace mejor la máquina, pero eso no significa que desaparezca el puesto de trabajo. La gente seguirá en ese puesto de trabajo, dedicada a las tareas donde la máquina todavía no supera al ser humano, algo que no ocurrirá en muchísimos años. Entonces es un problema, pero mucho menos grave de lo que leemos en la prensa. Dicen que desaparecerá la mitad de los empleos, pero yo no creo eso», sostiene.

Áreas irreemplazables

¿Hay áreas donde la IA nunca podría reemplazar al ser humano?

«El concepto ‘nunca’ es muy arriesgado, porque impone un límite de tiempo», responde. «No me atrevo ni tengo elementos. No tengo una bola de cristal. Me resulta muy difícil decir algo más allá de diez o quince años. No sé si hay alguna actividad que nunca será llevada a cabo por una máquina. No tengo la más mínima idea».

Ahora, si se habla a diez o quince años, para Mantarás hay muchas actividades donde el ser humano seguirá siendo superior, como solucionar problemas excepcionales, imprevistos, o las actividades donde es muy importante el ser humano, el contacto.

«Un médico que anima a un paciente hablándole o el efecto placebo no lo hará nunca una máquina, porque es difícil que tenga esa sensibilidad que tienen, no todos, pero muchos médicos humanos», expresa.

«Por eso estoy convencido de que en un plazo de veinte años, los médicos no serán sustituidos por máquinas, ni tampoco los cuidadores de personas, porque eso requiere empatía, afectividad, porque no se puede esperar de las máquinas que tengan emociones o afectividad real, no conciencia, para tratar con situaciones que no han visto antes. Si algún día hace estas actividades, hablamos de plazos muy largos, cientos de años. Por lo pronto, como mucho, el robot será un complemento al médico, liberándolo de las actividades más rutinarias».

La IA, ¿un peligro?

Mantarás además descree cuando se presenta a la IA como un peligro, que podría atacar a su propio creador.

«Hay que olvidarse de los peligros que muestran las películas de ciencia ficción», sentencia. «Las máquinas no tendrán intencionalidad ni motivaciones propias, ni se rebelarán porque sí. Si un sistema de IA hace algo negativo contra la sociedad, como un arma autónoma que pueda matar personas, es porque ha sido programada para hacerlo así».

«La maldad está en sus diseñadores», afirma. «Me atrevo a decir que la máquina nunca tendrá intencionalidad. Pensar en máquinas con autoconciencia, instinto de supervivencia, con la intención de adueñarse del mundo o esclavizar a los seres humanos, para mí es completamente irrazonable, irracional y no tiene ningún sentido».

Para él, los problemas son otros, y ya están encima de la mesa, como la amenaza a la privacidad.

«Se puede usar la IA para identificar caras, pero más del 90% de los casos son falsos positivos, es decir, la máquina se equivoca», comenta.

En ese sentido, cita la experiencia de la policía de Londres, que utilizaba un software que tenía un error de 98%.

«Las personas identificadas en un aeropuerto, en un estadio, en un lugar público, coincidían en sus rasgos faciales con una persona buscada, y no era así. Eso no puede ser y sí que nos tiene que preocupar, no una posible rebelión de los robots», apunta.

Para él es clave educar a los futuros ingenieros en IA en valores éticos, con un diseño basado en dichos valores. «El programador debe ser consciente y anticipar  las posibles implicaciones de lo que está haciendo, y no hacerlo. Habría que prohibir las armas autónomas, por ejemplo. Yo soy unos de los firmantes de una carta a Naciones Unidas pidiendo su prohibición».

Aprendizaje de las máquinas

Uno de los problemas que enfrenta actualmente la IA es el aprendizaje, donde es clave el concepto del «olvido catastrófico».

Hoy las nuevas tendencias en inteligencia artificial responden a una técnica que se conoce con el nombre de aprendizaje máquina, en inglés machine learning, en particular de unas que se llaman aprendizaje profundo, que intentan imitar, aunque de una manera muy poco precisa, poco aproximada, el funcionamiento de las neuronas biológicas que tenemos los humanos en el cerebro, explica.

Una máquina puede ser entrenada para, por ejemplo, distinguir entre gatos y perros. Sin embargo, cuando luego de esto es entrenada en otra tarea, por ejemplo, jugar ajedrez, olvida el aprendizaje anterior.

«A eso lo llamamos el ‘olvido catastrófico’, porque cada tarea nueva que aprende, hace que se olvide de la anterior. Ese es un problema que todavía no está resuelto. Se está investigando, se están haciendo mejoras, para que al menos no olvide completamente todo. Ese es un problema enorme de los sistemas de aprendizaje en inteligencia artificial».

¿Se aspira a que el aprendizaje de la inteligencia artificial sea como el del humano o algo nuevo?

«Se están haciendo ambas cosas», responde.

Y, al respecto, profundiza: «Por una parte se está intentado imitar, con el máximo detalle posible, cómo aprendemos los humanos. Se intentaría que en un futuro el aprendizaje de un sistema de inteligencia artificial sea incremental, no olvidara, que cuando aprenda algo fuera capaz de relacionar con las otras cosas que ya había aprendido antes, pero esto aún es utópico, no existe. Eso sería un aprendizaje de estilo humano, y que pueda aprender una gran cantidad de tareas distintas, que sea multitarea. Que el mismo sistema aprenda una multitud de cosas. Nos acercaríamos a los que llamamos inteligencia artificial, que sería muy parecida a la inteligencia humana que tenemos ahora, y al aprendizaje humano. Pero no solo se trabaja en eso».

Sin embargo, también se sigue trabajando en métodos de aprendizaje que pueden no estar relacionados necesariamente con cómo aprende el ser humano, «aunque siempre el ser humano es el referente, el motivador o el que nos da un poco las ideas de qué hacer».

«Por ejemplo, nosotros somos capaces de aprender por refuerzo, por analogía, por inducción. Todos esos tipos de aprendizaje se reproducen en la comunidad de inteligencia artificial. Se investigan todos por separado. Nosotros, con nuestro único cerebro, somos capaces de hacer todas esas cosas: aprender por analogía, por similitud, por refuerzo, por inducción, todo a la vez. En cambio, en la inteligencia artificial, cada sistema de aprendizaje es totalmente distinto e independiente uno del otro».

Los sistemas de IA hoy aún son súper específicos y no son generales.

«Lo que se está haciendo es las dos cosas: desarrollar y mejorar los algoritmos específicos para cada una de estas cosas, para aprender y de forma independiente, sin relacionarlas unas con otras, pero también se está intentando,  más recientemente, integrar todas estas maneras de aprender en un único sistema de IA», detalla.

«Esto último aún no sabemos cómo hacerlo, ni siquiera cómo hacerlo bien. En un futuro, si empezamos a saber cómo hacerlo, ya nos ocuparemos que cada vez sea más eficaz y eficiente, y cada vez lo haga mejor. Pero estamos lejos todavía de este sistema de aprendizaje general», concluye.

Publicidad

Tendencias