5 problemas que tendrá que superar la inteligencia artificial

Por lo general la legislación es algo que se mueve con mucha lentitud. Lo que es importante para dar en el clavo a la hora de formular las leyes pero el problema es que la tecnología siempre suele ir muy por delante. Lo que no es ideal cuando hablamos de asuntos como la economía colaborativa o más aún si se trata de un asunto del que Elon Musk ha dicho que es “potencialmente más peligroso que las bombas atómicas”.

Nos referimos a la inteligencia artificial. Uno no se siente muy amenazado cuando Amazon Echo no entiende la orden “pon REM” por décima vez consecutiva, pero el caso es que la amenaza es real. Gente inteligente como Bill Gates, Elon Musk y Stephen Hawking no le tendría miedo a algo sin motivo.

Pensemos que no llegamos a una pesadilla tipo “HAL 9000” y la IA acaba mostrándose como algo beneficioso para la humanidad. Incluso así todavía hay algunos aspectos que requieren atención.

1. Los seres humanos son malos profesores

5 problemas inteligencia artificial

La idea de que vamos a crear una IA perfecta, ideal, es algo poco realista. La IA aprenderá de una sociedad que tiene prejuicios y estereotipos. En algunas pruebas la IA optó por la piel blanca en un concurso de belleza y prefirió los típicos apellidos de personas blancas sobre los de negros. Estas máquinas no alcanzaron esta conclusión porque fueron programadas por neonazis sino porque los datos de los que aprenden vienen de la sociedad con todas las imperfecciones que ello significa. Para que la IA sea realmente objetiva tendremos que encontrar una manera de filtrar los prejuicios y estereotipos, el caso es cómo.

 

2. El “deep learning” a menudo no respeta la privacidad

La inteligencia artificial para aprender necesita datos, un mogollón de datos. Esta información se puede perder y ser empleada en tu contra. El que la IA tenga acceso a todos tus datos no es algo baladí, desde tu rutina diaria recogida a través del móvil a tus datos médicos.

La legislación podrá regular esto de alguna manera pero entonces se ralentizaría el desarrollo de la IA pues ésta cuanta más información maneje mejor irá. Así que es un poco la pescadilla que se muerde la cola.

3. ¿Qué haremos sin trabajo?

5 problemas inteligencia artificial

A medida que mejore la inteligencia artificial podrá hacer trabajos que ahora realizan humanos. Los robots no cobran a final de mes así que no hay que ser muy espabilado para ver las ventajas que esto supone desde el punto de vista empresarial. Algunos expertos creen que en 2050 ya no habrá mucho trabajo para los humanos. ¿Qué haremos entonces? Si la desigualdad es un problema hoy en día, ¿qué ocurrirá cuando haya más desempleados que trabajadores?

En la actualidad hay dos soluciones al problema, ninguna de las cuales casa muy bien con la sociedad en la que vivimos. La primera (promovida por Elon Musk) es algún tipo de salario básico universal. Es decir, el estado le paga al ciudadano un salario básico simplemente por existir. Lo que choca un poco con los problemas que tenemos para sostener el estado del bienestar tal y como lo conocemos.

Así que ¿cuál es la alternativa? Bill Gates aboga por un impuesto a las compañías que usen robots de IA para reemplazar a los trabajadores. La idea es desincentivar el proceso y lograr financiación que servirá para ayudar a los seres humanos más necesitados. Esta solución tampoco parece ser la ideal.

Ninguna de estas dos propuestas dan respuesta a la siguiente pregunta: con dinero o sin dinero, ¿qué harán los seres humanos con todo ese tiempo libre?

 

4. ¿A quién denunciarás cuando un robot te mate?

5 problemas inteligencia artificial

Incluso sin ponernos trágicos, es muy probable que la IA de manera directa o indirecta cause la muerte de alguien. Por ejemplo, hablando del coche autónomo podría darse una situación en la que el sistema tenga que decidir entre hacer daño al pasajero o un peatón.

Si un médico o un conductor te mata, tu familia sabrá a quién pedirle cuentas pero las cosas se complican un poco con la IA. ¿Quién es el responsable último? ¿El que usa el software? ¿La persona que desarrolló la IA? ¿La persona que le introdujo la información que le permite funcionar? ¿La tienda que vendió el artilugio? ¿El estado por haberlo legalizado?

Esto se pone todavía más turbio cuando hablamos de lo que llaman “aprendizaje de caja negra” en el que el “proceso de pensamiento” de la IA está escondido y es imposible de descifrar. Si no podemos establecer cómo un sistema de IA ha tomado una decisión, entonces es todavía más difícil saber quién es el culpable.

5. ¿Cómo hacer para que esto no se nos vaya de las manos?

Hoy en día es muy fácil para los humanos estar por encima de la IA, quizá esta es la razón por la que muchos especialistas se ponen algo a la defensiva cuando se presentan escenarios apocalípticos. Pero en el segundo en el que la inteligencia artificial sea más eficaz que la humana la historia cambiará para siempre.

 

Como dijo Tim Urban: “Un chimpancé puede llegar a sentirse a gusto con un ser humano y en un rascacielos, pero nunca entenderá que el edificio fue construido por los humanos. En su mundo cualquier cosa enorme es parte de la naturaleza. Él no sólo no puede construir un rascacielos sino que no puede entender que nadie sea capaz de hacerlo. Este es el resultado de una pequeña diferencia en la calidad de la inteligencia. Nosotros nunca seremos capaces de comprender lo que un sistema muy avanzado de IA es capaz de hacer, incluso si la máquina intentase explicárnoslo. Y mucho menos hacerlo por nosotros mismos. Nos podría intentar explicar durante años lo que hace y no valdría para nada”.

Si te ha gustado esta noticia y quieres más, date de alta en nuestra newsletter: