INNOVACIÓN

Ética: el gran reto de la inteligencia artificial

Tiempo de Lectura: 5 minutos

Ética: el gran reto de la inteligencia artificial
Avatar

CaixaBank

04 Octubre, 2019


Existen pocas cosas que hagan volar más nuestra imaginación que los robots. Cuando pensamos en ellos, soñamos con un futuro en el que las máquinas harán todo el trabajo y los humanos podremos dedicarnos a vivir la vida. Sin embargo, los robots no son cosa del futuro. Ya están aquí, entre nosotros. Los coches ya conducen solos e incluso tenemos asistentes virtuales que responden a casi todas nuestras preguntas. La inteligencia artificial (IA) está en plena ebullición y hay una cuestión que cada vez preocupa más a expertos de todo el mundo: su ética.

Pensemos por un momento en un coche autónomo. Sus algoritmos han sido diseñados para salvaguardar las vidas humanas. Sin embargo, en una situación en la que estén en riesgo varias vidas y no pueda salvarlas a todas, ¿cuál elegirá? ¿Y en qué se basará para tomar esa decisión?

Prestemos ahora atención a los asistentes virtuales, cada vez más habituales en nuestros hogares. Más allá de grabar y procesar conversaciones privadas que pueden contener material sensible, son capaces incluso de detectar nuestro estado de ánimo o de salud simplemente con oírnos hablar. ¿Qué consecuencias podría tener para los sistemas democráticos que una serie de empresas acumule semejante cantidad de información?

Estas y otras cuestiones son las que se plantean en la era de la inteligencia artificial. Por ese motivo, la Cátedra CaixaBank RSC del IESE ha editado un cuaderno sobre Ética e inteligencia artificial. Un campo que, como tantos otros, parece ir por detrás del vertiginoso desarrollo tecnológico.

Qué es la inteligencia artificial

Antes de tratar temas tan abstractos como el de la ética, conviene saber a qué nos referimos cuando hablamos de inteligencia artificial. El término, que ha ido evolucionando con los años, surgió en el verano de 1956 como campo de investigación. Entonces, John McCarthy, formado en las universidades de Princeton y de Stanford, decidió reunir en la Universidad de Dartmouth a los principales investigadores estadounidenses de los campos de la informática y de la psicología cognitiva. El objetivo era trabajar durante los meses de verano en lo que McCarthy acuñó como artificial intelligence.

La premisa fundamental de este seminario era la creencia de que «cualquier aspecto del aprendizaje y cualquier otro rasgo de la inteligencia puede, en principio, ser descrito de forma tan precisa que puede lograrse que una máquina que lo simule» (McCarthy et al., 1955). Es decir, se trataba de crear máquinas capaces de replicar la capacidad humana de emplear el lenguaje, de aprender y razonar creativamente.

Este fue el origen de décadas de optimismo en torno a lo que podría llegar a conseguir la inteligencia artificial. De hecho, alguno de los asistentes a la conferencia de Dartmouth, que se celebraba periódicamente, llegó a afirmar en 1965 que «en veinte años las máquinas serán capaces de llevar a cabo cualquier tipo de trabajo que un hombre pueda hacer», con un evidente exceso de entusiasmo.

Aunque el vaticinio no se cumplió, en los años 80, el desarrollo de la inteligencia artificial trajo consigo la aparición de sistemas capaces de ahorrar una gran cantidad de dinero a las empresas. A partir de los años 90 y principios del siglo xxi, sus aplicaciones se ampliaron a otros campos como la medicina y la logística. Su trayectoria era prometedora.

Bajo una visión más realista de su evolución, y en vista de lo difícil que resulta definir un término tan amplio como el de «inteligencia», en los últimos años se tiende a definir la IA como un complemento de la inteligencia humana. Esto quiere decir que, más que sustituirnos, los sistemas de IA deben enfocarse en complementar nuestras deficiencias y centrarse en aquello que una máquina pueda hacer mejor que una persona.

Cómo responder a los retos éticos

El desarrollo de sistemas de inteligencia artificial plantea una serie de retos, tales como el dilema del coche autónomo o la gestión de la privacidad de los asistentes virtuales mencionados al principio. Incluso los prejuicios pueden llegar a ser un desafío para las máquinas: existen estudios que muestran cómo la asignación de una hipoteca mediante programas informáticos inteligentes puede variar su precio según la raza o el color de piel del cliente.

La mayor parte de estos problemas procede del propio diseño de la tecnología y el conjunto de datos analizados por los algoritmos. Por eso, el uso y la implementación de la inteligencia artificial debe hacerse bajo ciertas consideraciones éticas.

La cuestión es cómo introducir los principios éticos necesarios dentro de una máquina para que sea capaz de responder a estos retos. Lo primero que hay que tener claro es cuándo hacerlo. En este caso, el cuaderno de la Cátedra CaixaBank RSC apunta dos momentos cruciales: las fases de diseño y de desarrollo del sistema.

Durante el proceso de diseño, hay que concretar de la forma más exhaustiva posible cuáles son los posibles usos y riesgos que una nueva aplicación provista de inteligencia artificial puede desarrollar.

Como se trata de sistemas muy complejos, se corre el riesgo de perder el hilo al tratar de determinar por qué han tomado una u otra decisión. Se pueden volver impredecibles. Por eso hay que delimitar esa impredecibilidad: determinar qué tareas realizan, qué información procesan y qué tipo de resultados cabe esperar de ellas. Igual que una empresa no contrataría a un directivo incapaz de explicar por qué ha tomado una decisión, tampoco debería incorporar sistemas autónomos que actúen de manera incomprensible.

En la fase de desarrollo, se trata de aportar medios concretos que permitan a los ingenieros, programadores, directivos y reguladores incorporar principios y normas al funcionamiento de las nuevas aplicaciones. Esto puede hacerse de diferentes formas. Por ejemplo, poner a la máquina a observar a humanos para replicar sus patrones éticos, introducir una serie de principios éticos universales en el sistema o bien hacer que, en ciertas situaciones, prevalezcan los principios de carácter universal, mientras que en otras lo hagan otros criterios según las circunstancias específicas.

Siete directrices para desarrollar una IA fiable

Como parece difícil que la programación y el diseño informáticos puedan incorporar exactamente todos los principios y normas necesarios para que un sistema inteligente opere siempre de manera adecuada y segura, hacen falta normas que ayuden a establecer un entorno de actuación claro y definido.

Así, la Comisión Europea ya ha emitido un documento elaborado por un grupo independiente de expertos sobre inteligencia artificial. Presenta siete requisitos indispensables para alcanzar una inteligencia artificial fiable:

1. Intervención y supervisión humana: la IA debe siempre fomentar la autonomía humana y los derechos fundamentales de las personas.

2. Robustez y seguridad: la fiabilidad de la inteligencia artificial exige que los algoritmos sean suficientemente seguros, fiables y sólidos para resolver errores o incoherencias durante todas las fases del ciclo de vida útil de los sistemas de IA.

3. Privacidad y gestión de datos: los ciudadanos deben tener pleno control sobre sus propios datos, al tiempo que los datos que les conciernen no deben utilizarse para perjudicarles o discriminarles.

4. Transparencia: debe garantizarse la trazabilidad de los sistemas de inteligencia artificial.

5. Diversidad, no discriminación y equidad: los sistemas de inteligencia artificial deben tener en cuenta el conjunto de capacidades, competencias y necesidades humanas, y garantizar la accesibilidad.

6. Bienestar social y medioambiental: los sistemas de inteligencia artificial deben utilizarse para mejorar el cambio social positivo y aumentar la sostenibilidad y la responsabilidad ecológicas.

7. Rendición de cuentas: deben implantarse mecanismos que garanticen la responsabilidad y la rendición de cuentas de los sistemas de inteligencia artificial y de sus resultados.

Se trata de pilares fundamentales que pueden ser capaces de hacer que la inteligencia artificial se convierta en el gran apoyo para la humanidad que todos esperamos que sea.