Inteligencia artificial: ¿cuestión de principios?

IMAGE: Nick Youngson CC BY-SA 3.0 ImageCreatorGoogle ha publicado su declaración de principios con respecto a la inteligencia artificial, un texto cuidado, de propósito necesariamente amplio y que pretende cubrir todos los supuestos acerca de los posibles usos de su tecnología. La declaración constituye un documento breve y de lectura muy recomendable que, sobre todo, plantea muchas reflexiones sobre el mundo al que nos dirigimos y las reglas que, necesariamente, debemos plantearnos de cara a su evolución.

La compañía llevaba tiempo trabajando en una reflexión de este tipo, del mismo modo que se está trabajando mucho en este sentido en otros ámbitos: aquellos que afirman que la publicación del documento es una reacción a la reciente dimisión de una docena de trabajadores y la petición firmada por varios miles más en protesta por la participación de la compañía en el Proyecto Maven del Departamento de Defensa, destinado a reconocer imágenes tomadas por drones en el campo de batalla, o bien no conocen a la compañía, o confunden claramente los factores coyunturales con fundacionales, la forma con el fondo. La regulación de la inteligencia artificial no es un tema en absoluto nuevo, se está discutiendo en numerosos foros, en algunos de los cuales participo personalmente, y Google, como uno de los actores más relevantes y avanzados en este tema, no ha hecho más que poner en negro sobre blanco una declaración de principios que proviene de un proceso de reflexión largo y continuado en el tiempo.

Probablemente influenciados por la coincidencia en el tiempo de esas dos circunstancias, la mayor parte de los titulares que leerás en las noticias se refieren a la importancia de la declaración de Google describiéndola de manera simplista como «Google promete que su AI no será utilizada para el desarrollo de armas o violaciones de los derechos humanos«, cuando la realidad es que basta una lectura superficial del documento para entender que sus intenciones van mucho más allá. La mención a las armas, de hecho, ocupa un muy breve espacio en una sección de propósito aclaratorio titulada «AI applications we will not pursue», y se limita a decir que la compañía no trabajará en «armas u otras tecnologías cuyo principal propósito o implementación es causar o facilitar directamente lesiones a las personas», pero que «seguirán trabajando con gobiernos o con los militares en otras áreas que podrán incluir ciberseguridad, entrenamiento, reclutamiento militar, cuidado de salud para veteranos o búsqueda y rescate».

¿Qué es lo importante, por tanto, en la declaración de principios de Google? En primer lugar, la importancia de llevar a cabo esta reflexión en todos los ámbitos, y de hacerlo de una manera no tremendista, bien informada, y con un adecuado nivel de realismo, sin imaginarse robots asesinos en escenarios apocalípticos que nos atacan en cada esquina, o supuestas inteligencias superiores que deciden librarse de los humanos porque les resultan molestos. No, cuando hablamos de inteligencia artificial no hablamos de inteligencia de propósito general, y no lo haremos durante mucho tiempo, porque inteligencia artificial, a día de hoy, no es eso. De manera realista, hablamos en realidad de aplicaciones que tienen más que ver con qué productos son ofrecidos a qué clientes potenciales, con políticas de pricing, con la prevención del abandono o churn, la detección de posibles patrones de actividad fraudulenta, las opciones en la determinación del marketing mix, y sin duda, cada vez más cosas. Menos morboso que los robots asesinos, sin duda, pero enormemente importante y con un potencial muy importante para hacer las cosas mal.

De ahí que uno de los puntos más relevantes declaración de principios, que incluye cuestiones como «ser socialmente beneficioso», «evitar la creación o el refuerzo de sesgos», «ser responsable ante las personas», «incorporar principios de privacidad» o «ser puesto a disposición para usos acordes con estos principios» (lo que implica impedir su uso a quienes no los respeten), me han parecido puntos como el «mantener altos estándares de excelencia científica» o, sobre todo, «ser construido y probado con seguridad»: muchos de los problemas que la tecnología está planteando a medida que avanza provienen no del hecho de que se diseñe con objetivos potencialmente perjudiciales, sino al hecho de que se gestione de manera incorrecta, con una seguridad inadecuada, con errores graves en los procedimientos o sin tener en cuenta que en el mundo existen, obviamente, personas malintencionadas o con intereses oscuros. No, el «Oooops!», la candidez o la ingenuidad sin límites no pueden seguir sirviendo como disculpas cuando hablamos de desarrollo de tecnologías con un potencial importante para usos perjudiciales o malintencionados, y Google reafirma su compromiso de cara a este tipo de problemas, un compromiso que que va mucho más allá del «no seremos malvados». Esto, por supuesto, no exime a la compañía de la posibilidad de cometer errores, que pueden suceder en cualquier proceso, pero si reafirma una importante voluntad de no cometerlos, de someterse a procesos rigurosos y de tratar de evitarlos a toda costa. 

La reflexión sobre los principios éticos asociados al desarrollo de algoritmos de inteligencia artificial es importante, y va a producirse a todos los niveles. Tan importante como llevarla a cabo es conseguir que se produzca en el ámbito adecuado, alejada de ignorantes que desconocen completamente lo que es la inteligencia artificial y que, con mentalidad tremendista, creen que hablamos de HAL, de Skynet o de robots Terminator que vienen del futuro para asesinar a Sarah Connor. Permitir que personas no preparadas o que no entienden el desarrollo de machine learning e AI se impliquen en la redacción de los principios éticos que gobernarán su futuro es un absurdo conceptual que, sin duda, nos llevaría a visiones restrictivas y a intentos inútiles de detener el futuro. Esto incluye, sin duda, a la política: que el pueblo te elija para supuestamente representarle no implica que estés preparado para opinar – o peor, para legislar – sobre todos los temas. Si no se sabe de un tema, es mejor y más productivo para todos que se ejerza la responsabilidad necesaria para reconocerlo, abstenerse y solicitar la implicación de quienes sí lo dominan.

No es lo mismo, indudablemente, llevar a cabo una reflexión sobre los principios éticos que deben regir el desarrollo de la inteligencia artificial en Google, uno de los principales actores en el tema, que la está integrando en absolutamente todos sus productos y que se ha caracterizado precisamente por llevar a cabo una ambiciosísima iniciativa de formación de la práctica totalidad de sus empleados en esta disciplina, que tratar de desarrollarla en un gobierno, en un organismo supranacional o en cualquier otro entorno político en el que el conocimiento del tema está entre lo nulo, lo superficial y lo directamente alarmista. Reflexiones de ese tipo se van a intentar hacer en todo tipo de foros, y lo que más me interesa de ellas no son sus resultados, sino el proceso por el cual se lleven a cabo y las consecuencias que se pretenda que puedan tener.

Plantear interrogantes sobre el futuro y tratar de evitar consecuencias potencialmente negativas o no deseadas es una cosa, que si se hace con el rigor y la disciplina que Google ha puesto en ello, puede ser interesante y provechoso. Perseguir fantasmas y prohibir cosas por si acaso en alguna esquina aparece Terminator entre resplandores y nubes de humo es otra muy diferente, y nos puede llevar a verdaderas tonterías e intentos de detener el progreso y la evolución natural de la humanidad. Cuidado con los miedos irracionales, la desinformación, y con sus primos, la demagogia y el populismo. En el desarrollo de principios razonables y con sentido sobre el desarrollo de algoritmos de inteligencia artificial se juega una parte importante de nuestro futuro. La inteligencia artificial es cuestión de principios, sí. Pero de principios bien hechos.

 

 

 

This article was also published in English at Forbes, “Artificial intelligence: a question of principles?«

 

9 comentarios

  • #001
    Krigan - 8 junio 2018 - 19:41

    Dejando a un lado lo que hoy es pura ciencia ficción (Skynet/Terminator y similares), lo cierto es que las implicaciones en lo militar son tremendas. Recordemos que la guerra del Golfo (1991) fue ganada básicamente por la aviación, y que tan solo unos pocos años más tarde, en 1999, la guerra de Kosovo fue ganada en 2 meses y medio tan solo con el empleo de la aviación (y misiles crucero Tomahawk), sin que llegase a haber ninguna intervención de fuerzas terrestres.

    Para que una fuerza aérea robotizada fuese capaz de ganar por sí sola una guerra serían necesarios 3 requisitos:

    – Que los ordenadores fuesen capaces de pilotar aeronaves por sí solos (capacidad que existe desde hace décadas, aunque algunos no se lo crean).

    – Que fuesen capaces de identificar y destruir a los cazas enemigos que intentasen destruir a las aeronaves propias.

    – Que pudiesen identificar y atacar objetivos terrestres.

    Nótese que el tercer requisito está relacionado precisamente con el proyecto Maven, sobre todo por la parte de identificar, que es la más difícil. Por eso no debe extrañarnos que el proyecto Maven causase todo un terremoto entre los empleados de Google.

    Y claro, la madre del cordero es que si Google no lo hace, lo hará otro. Como Google es posiblemente la más avanzada, el hecho de que Google se abstenga de entrar en el desarrollo de armamento IA retrasaría el desarrollo tal vez 3-5 años, pero no más.

  • #002
    Xaquín - 8 junio 2018 - 19:42

    Dos vicios tiene el ser humano y muy bien implementados: el miedo al otro y el afán de poder. No será diferente con el advenimiento de entes inteligentes no humanos ( o simbióticos). Nuevos «refugiados» en la sociedad terrestre, falsamente civilizada. Incluso aunque aparezcan como simple «servicio doméstico».

  • #003
    Gorki - 8 junio 2018 - 20:19

    Los avances técnicos son neutros, lo que no son neutros es el uso que los demos, Esto ha sido así desde que se descubrió el fuego y seguirá siendo así en el futuro.

    Por mucho que Google quera dar un uso sano a la «IA», no podrá impedir que otros le den una utilidad perversa, El mismo vehículo autónomo que puede ser maravilloso para hacer un autobús escolar que recojan a los niños de poblaciones dispersas y los llevan a la escuela, otros podrán utilizarlo para llenarlo de explosivos y encaminarlos s contra cualquier multitud.

    • Krigan - 8 junio 2018 - 20:34

      Sí, pero en el desarrollo de armamento IA hay un aspecto adicional. Un dron bombardero (estilo Reaper) es mucho más eficaz a la hora de destruir personas y cosas que un autobús cargado de explosivos. La diferencia está en que un autobús no se diseñó para eso, y un bormbardero sí.

      • Gorki - 9 junio 2018 - 10:58

        No, viene a ser lo mismo, Un autobús cargado de explosivos, dirigido contra la salida de un partido de fútbol, puede ser mucho mas mortífero que un dron bombardero.

        En uno y otro caso, quien condece el vehículo esta lejos del lugar de la masacre con todo lo que ello permite de actuar a modo kamikace y el distanciamiento emocional que posee el asesinato a distancia, sobre el asesinato cuerpo a cuerpo.

        Pero ni el dron ni el autobús se inventaron con un fin concreto, son otros quienes deciden utilizarlo como ambulancia o como arma de guerra.

        • Krigan - 9 junio 2018 - 15:49

          Hombre, el dron bombardero y la ambulancia sí se inventaron con un fin muy concreto. Y dudo mucho que la ambulancia, por muy cargada de explosivos que esté, supere a un bombardero (tripulado o no) a la hora de matar gente.

  • #007
    eldelaplazoleta - 9 junio 2018 - 00:03

    Google, «Don’t be evil» .

    Como declaración de intenciones está muy bien pero, a estas alturas de la película, la pregunta es: ¿son creíbles?.

    • Sergio - 11 junio 2018 - 08:56

      Por supuesto que sí.
      Las empresas tomarán las decisiones que crean necesarias, pero si transgreden los preceptos con los cuales atrajeron a su base de talento, los perderán.
      Google no es nada sin sus trabajadores, debe mantenerlos o se irán a otros lugares en los cuales se sientan más cómodos.

  • #009
    Marcelo - 9 junio 2018 - 08:25

    A mi estos principios me parecen un brindis al sol para lavar su imagen en estos tiempos histéricos que vivimos. Son tan vagos e imprecisos que pueden significar y justificar absolutamente cualquier cosa y su contraria según interese.

Dejar un Comentario a Gorki

Los comentarios están cerrados