Es machine learning, no inteligencia artificial

Me ha gustado este artículo de John Naughton en The Guardian titulado «Machine-learning systems are problematic. That’s why tech bosses call them ‘AI’«, en el que trata uno de los temas en los que más insisto en mis cursos cuando hablo sobre machine learning: que la terminología «inteligencia artificial» o «AI» únicamente revela la ignorancia de quienes la utilizan, o su incapacidad, como enunció el bueno de Arthur C. Clarke en su Tercera Ley, para diferenciar una tecnología suficientemente avanzada de la magia. Habitualmente, suelo referirme al tema con una anécdota que convertí en generalización: utilizo siempre el término machine learning porque hace tiempo comprobé que cuando hablaba con algunos periodistas y surgía el término «inteligencia artificial», terminaban ilustrando la noticia con una imagen de un Terminator :-)

En sus ejemplos sobre la forma en la que el lenguaje afecta nuestra percepción de las cosas, particularmente en un ámbito como el tecnológico en el que, en muchas ocasiones, la novedad del fenómeno permite la libertad de su manipulación en forma de «ingeniería lingüística», John menciona términos como el «compartir», que en la práctica quiere decir «permitir que una compañía almacene tu preferencia» o el «aceptar» cuando quieren decir «o dices que sí o renuncias a usarlo y te vas o otro sitio», entre otros. Pero el caso de la «inteligencia artificial» es todavía más interesante, porque en el término se incluyen cuestiones que aparentemente se quieren hacer pasar como «normales y naturales», cuando en la práctica son simplemente errores de cálculo, falta de precaución o descuido.

No, la «inteligencia artificial» como tal, en el sentido de «máquina inteligente», no existe. En su definición de diccionario, «programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje o el razonamiento lógico», la disciplina ha llegado, como sabemos, a ejecutar tareas relativamente complejas sujetas a una serie de reglas generalmente expresadas como restricciones, y así tenemos programas capaces de jugar al ajedrez, al Go, a videojuegos, a buscar rápido en una base de datos y simular una comprensión del lenguaje humano, o al poker, o más recientemente capaces de expresar ideas en forma de texto, de dibujos o de vídeo. ¿Quiere decir eso que tenemos máquinas inteligentes? En absoluto. Simplemente quiere decir que son capaces, tomando una serie de datos, de reproducir los patrones que generan un resultado concreto. En modo alguno esas máquinas pueden hacer más cosas que aquellas operaciones concretas para las que han sido programadas, ni mucho menos aún, adquirir una supuesta «conciencia». En ningún caso estamos todavía ahí, ni lo estaremos en mucho tiempo.

¿Cómo interpretar el machine learning? Simplemente, como procesos estadísticos avanzados. En ocasiones, mediante herramientas muy complejas, pero eso es todo. Con ese tipo de herramientas podemos avanzar, y mucho, en la automatización avanzada de procesos, hasta el punto de generar ventajas competitivas considerables o de reemplazar ventajosamente trabajos que antes desarrollaban personas. Pero se trata de eso, de estadística avanzada que nos permite procesar situaciones con infinidad de variables implicadas, detectar cualquier tipo de anomalía, clasificar, predecir, entender lenguaje natural, optimizar, etc. Herramientas con una potencia enorme y aplicables a muchísimos procesos, que en muchos casos nos sorprenden o hasta nos hacen sentir temor, pero que son simplemente eso: estadística avanzada y aplicada. Ni «inteligencia» como tal, que posee unas implicaciones de flexibilidad y plasticidad que el cerebro humano suele poseer y los algoritmos no, ni «artificial», en el sentido de que la estadística es una ciencia completamente natural y los algoritmos, por el momento, no han llegado a replicar la manera en la que la inteligencia se genera en el cerebro.

La inteligencia, en general, tiene que ver con la capacidad para tomar decisiones en un ámbito generalizado. Una máquina que juega al ajedrez puede ser muy buena jugando al ajedrez, porque en el fondo, el ajedrez es un juego de gestión probabilística de espacios combinatorios, pero no puede hacer otra cosa salvo que la entrenemos con otros datos e introduzcamos correctamente las reglas o restricciones correspondientes. Probablemente, muchas de las capacidades del cerebro humano para desarrollar inteligencia se deben al mecanismo de la sinapsis neuronal, que los científicos llevan mucho tiempo intentando replicar para obtener máquinas que supuestamente trabajen como nuestro cerebro, pero por el momento, la comparación entre las denominadas «redes neuronales» y el cerebro es puramente lingüística, y muy lejos de la realidad y de las capacidades a las que ello podría dar lugar.

¿Inteligencia artificial? ¿IA? Por el momento, simplemente un término ambiguo, confuso, sin ninguna ventaja especial con respecto al infinitamente más real y pragmático machine learning, y que, para terminar de hacerlo desaconsejable, lleva a muchos a creer que una máquina puede llegar a ser inteligente tal y como entendemos ese término aplicado a las personas, con todos los efectos potencialmente negativos que ello conlleva. Tras años echando la culpa al ordenador cuando algo no funciona, ahora nos dedicamos a echar la culpa al algoritmo cuando alguien lo utiliza sin haberlo sometido a las pruebas adecuadas. La cosa, parece, es poder echarle la culpa a algo…


This article is also available in English on my Medium page, «What’s the difference between machine learning and artificial intelligence?»

48 comentarios

  • #001
    Gorki - 6 noviembre 2022 - 14:24

    Completamente de acuerdo. (De momento), una inteligencia artificial, solo sabe hacer una cosa, no tienen consciencia de que lo está haciendo y lo hace siguiendo unas reglas que sele han incorporado previamente. Si las reglas que se aplican las introduce un misógino racista, su funcionamiento con muchas probabilidades, será misógino y racista.

    Si utilizan la técnica de «machine learning», para llagar a discernir los higos de las pasas, y los ejemplos ofrecidos, tenían muy mayoritariamente, un numero par de higos e impar de pasas, hay el riesgo que cualquier cosa par, la considere higos y si es impar, pasas y lo mas grave, es que no nos demos cuenta porque con los ejemplos ofrecidos, funciona casi perfectamente.

    Yo no llego a imaginar a lo que llegara al desarrollo de la IA, pues por un lado aun me asombro al pensar que una IA, ganó al campeón mundial del ajedrez. Pero por otra parte, pienso en los miles de millones que se han destinado a al IA de conducir, y me asombra que el famoso robotaxi de Rigan, no inunde aun nuestras ciudades, aunque creo que ya funciona en California, a ver si llega a España antes que me muera.

    • Enrique Dans - 6 noviembre 2022 - 14:27

      Correcto, salvo que, probablemente inducido por tu pasado como programador, has pensado que las reglas se introducen, cuando en realidad, no se programan, sino que emergen de los datos. Lo que hace que un algoritmo sea racista, machista o misógino son los datos con los que se entrena y alimenta, las reglas son derivadas automáticamente de esos datos. Pero eso, que de acuerdo en lo fundamental.

  • #003
    Alfredo Hoz - 6 noviembre 2022 - 14:51

    No me voy a poner a buscarlo, pero creo que el Sr. Lua ya advirtio de esa «diferencia» hace muuucho tiempo…

    Coincido, eso si, con el Sr. Gorki y el Sr Dans en su ultimo comentario. Aunque matizaria, que una «IA» que gane a un campeon del mundo de ajedrez, no deja de ser ML. Al menos, hasta que no de saltos de alegria de motu proprio…

  • #004
    Rodrigo Gonzalez - 6 noviembre 2022 - 17:22

    La única pega que tengo siempre con tus artículos (en español), es que línkeas en inglés.

    • Enrique Dans - 6 noviembre 2022 - 17:31

      Lo siento, Rodrigo, pero es que doy clase en inglés, mis alumnos son prácticamente todos de fuera de España (tengo como mucho uno o dos alumnos españoles en cada grupo) y el inglés es el idioma común en mi entorno. Si enlazase a medios en español, después tendría que buscar enlaces alternativos para mi publicación en inglés, que es la que utilizo en clase y en la que tengo más relevancia, y es un trabajo adicional que no puedo asumir (voy ya muy justito de tiempo con lo que hago, de verdad!).

    • Gorki - 6 noviembre 2022 - 18:46

      Al menos en mi navegador, (Google Crome), si oprimes la tecla de la derecha sobre la web, se abre el menú contextual y una de las opciones te permite traducir automáticamente al español cualquier página web.

  • #007
    menestro - 6 noviembre 2022 - 22:10

    Lo más curioso de la inteligencia artificial es que todo el mundo habla, o ha oído hablar de ella, pero nadie la conoce personalmente.

    Y la verdad es que el desconocimiento, incluso de los que se supone que hablan con autoridad del tema y están convencidos de que saben algo, es impresionante.

    Es una de las palabras mágicas más difundidas en todos los ámbitos.

    Sí, efectivamente, el Machine learning es una de las tecnologías que engloba el término inteligencia artificial, así que hacer una distinción no es correcto.

    El problema es que Enrique piensa que son dos cosas diferentes y no, son muchas más, e «IA» es un término comodín, común para muchas disciplinas y tecnologías.

    No hay un «hecho diferencial» que otorgue alguna bondad adicional al ML, que también es una buzzword, al margen del hype de la «Inteligencia Artificial».

    A ver si encuentro algún enlace… este mismo.

    AI Knowledge Map: How To Classify AI Technologies – Forbes

    Nos prometieron a Hal 9000 y Dave , y tenemos que conformarnos con Siri y Elon Musk.

    • Chipiron - 7 noviembre 2022 - 15:54

      Yo me quedo con Google Assistant y Steve Jobs. Y eso que soy un «fanboy» de Apple y un admirador «del lado bueno» de Elon Musk.
      ;-)

      • Alfredo Hoz - 7 noviembre 2022 - 17:30

        Deberia, Sr Chipiron, seguir este hilo de TW :P

        El hilo de twitter (sobre Elon Musk) que emocionó a Iker Jiménez «

        «La verdad esta ahi fuera…» XDD

        • Chipiron - 7 noviembre 2022 - 17:45

          Gracias, don Alfredo. Así lo haré.

          Y, en reprocidad, si le apetece, usted podría revisar la bibliografía de lo que ha conseguido el Sr. Musk hasta la fecha. Es más, me encantaría oir su opinión/valoración sobre sus éxitos (si es que considera que ha conseguido alguno). Lo digo en serio, no es una provocación, es curiosidad por saber si usted ve que ha conseguido algo y, de ser así, qué y que mérito le atribuye. De esta forma tendré más clara su postura. Repito que con todo el respeto, sin ánimo de avivar ninguna polémica.

          Por cierto, por si le interesa, más allá del Sr. Musk , uno de los últimos podcasts de Lex Fridman es con Andrej Karpathy, hasta hace poco jefe del equipo de desarrollo del FSD de Tesla. Creo que también entra de forma natural en el hilo de hoy, pues todo el sistema es ML:

          https://youtu.be/cdiD-9MMpb0

          Eso sí, es muy largo.

          Cuidese mucho, de recuerdos a quien ya sabe y un fuerte abrazo!

          PD: Yo le prometo que me leeré los hilos de TW que me comenta.

          • Alfredo Hoz - 7 noviembre 2022 - 18:08

            Sr Chipiron, le he puesto un enlace de humor para que se ria un poco, que veo que va un poco tenso… :P

            Por lo demas, no hace ni tres articulos que ya le dije aquello de «lo de repetirse como el ajo me duele hasta a mi mismo»

            Cuando Musk, diseñe un coche desde cero (o un cohete o un satelite) le dare todo el merito que merezca, pero mientras, solo es el tio que ha puesto la pasta…

            Y ya que menciona tan por igual a Jobs… a mi Jobs me merecia todo el respeto del mundo (con su bueno y con su malo), y a Musk, le queda aun recorrido… y no llegara a igualarlo.

            Se ha enterado ya de la ultima?

            Musk despidió a miles de trabajadores. Ahora le pide a algunos que vuelvan para sacar el trabajo adelante

            Me pregunto si su objetivo, no es cargarse la RRSS :P

          • Alfredo Hoz - 7 noviembre 2022 - 18:10

            Separo las dos cosas, ahora lo serio…

            espero mañana poder dedicarme a esos enlaces que le ha puesto mas abajo al Sr Gorki… porque Yo SI me leo los enlaces que ponen tanto el Sr. Dans, como los comentaristas… :P

          • Chipiron - 7 noviembre 2022 - 18:24

            Ve como vamos coincidiendo? Veo que usted también valora la labor de Steve Jobs. Lo celebro.

            A mi me encantaría tener todo el tiempo necesario para leerme todos los links, tanto de Enrique como de los comentaristas, pero sinceramente no puedo, no me da el tiempo para más.

            Eso sí, lo prometido es deuda y leeré lo que usted me ha sugerido.

            Que pase un buen dia y no se preocupe, no sólo no estoy tenso si no que muy relajado y encantado con esta nueva relación que hemos entablado. Lógicamente, en ciertas cosas coincidimos (Twitter, Steve Jobs, los «buenos de los militares») y en otras no, pero eso es normal en un foro como el que nos brinda el Sr. Dans.

            Un abrazo y que pase un gran día!

          • Alfredo Hoz - 7 noviembre 2022 - 18:32

            Lo siento… lo siento…. no volvera a ocurrir :P

    • JPR - 7 noviembre 2022 - 16:14

      Maestro

      pico y pala; pico y pala; pico y pala

      Cierto en el primer enlace que puse de wikipedia:

      «El aprendizaje automático… (del inglés, machine learning) es el subcampo de las ciencias de la computación y una rama de la inteligencia artificial, cuyo objetivo es desarrollar técnicas que permitan que las computadoras aprendan…»

      ¡¡¡ ROMA no se hizo en un día. !!!

      La educación es un marathon, no una carrera de velocidad, hay que establecer una rutina de trabajo constante para llegar a la meta. Poco a poco, primero que no se hable de transhumanismo, de disrupciones exponenciales y demás chorradas.

      “dar cera, pulir cera”

  • #016
    Javier Cuchí - 7 noviembre 2022 - 09:48

    Estupendo post que debería ser leído por mucho merluzo que aún teme la rebelión de las máquinas a modo de la que Clarke ilustró con su HAL 2000 (y que mucha gente olvidó que era ciencia ficción; de la buena, pero ficción). Lo que me pregunto es si la merluzada sería capaz de entenderlo; el otro día oí a un fulano (en un bar, of course) asegurar, con el aplomo de un Papa dictando una encíclica, que a los coches de conducción automática habría que tratarlos muy bien para evitar que les diera por suicidarse con nosotros dentro. ¡Y lo decía en serio! El tío era evidentemente un cazurro, pero hay mucho cazurro así con plaza de enterao que escribe en los papeles en el mismo sentido (aunque con mayor -no mucho mayor- refinamiento en la expresión)

    • Javier Cuchí - 7 noviembre 2022 - 20:05

      ¡Ups! Perdón: HAL 9000

  • #018
    Luisondome - 7 noviembre 2022 - 11:14

    Excelente artículo. Muy instructivo. Este también me lo guardo.

  • #019
    JPR - 7 noviembre 2022 - 12:24

    Las personas tendemos a humanizar aquello que nos rodea. Las creencias animistas humanizan los astros, los objetos, la naturaleza. Disney hace hablar a perros, gatos, ratones en sus animaciones. Asi que no es de extrañar lo que señala Naughton, y como usamos conceptos del lenguaje solo aplicable a las personas a nuestras creaciones tecnológicas. Y por si fuera poco el imaginario colectivo mezcla ficción con realidad. ¿Fue alguna vez real el medieval Golem? Pues casi tanto como los robots de Capek de 1921. Al menos eran honestos con nuestro lenguaje, no distorsionaron el lenguaje de forma tan abrupta y despiada como la «primavera IA».

    Como bien nos recuerda Enrique, el uso inapropiado de ciertos términos, ha confundido a muchos.

    Cuando hablamos en tecnología de:

    * Neurona artificial. Es una palabra mucho más onírica que llamar a un nodo perceptrón

    * Aprendizaje automático. Es también más onírico que llamarlo

    – modelo geométrico
    – modelo probabilístico
    – modelo lógico

    Cuando alguien dice que «un ordenador aprende», en realidad debería decir «un modelo de funciones matemáticas cuanto más datos reciba, hará una mejor aproximación de sus pesos, etc… y más confiable será el resultado».

    ¿qué vende más? El cliente quiere escuchar a quien le dice «te quiero mucho» que a quien te dice «tienes 15 minutos». Asi que si los ignorantes del SXXI son los asiduos de quilombos tecnológicos.Y por supuesto que el colmo de la disfunción es denominar «inteligencia artificial» a algo que en si tiene menos inteligencia que un trumpista.

    La moda entre los vendehumos de la AI, ahora está en asumir que de estos sistemas puede emerger cierta inteligencia. Y ya no es un indocumentado, que hasta el famoso ingeniero creyente de google, asume que detras del chatbot lamda al que alimenta hay una personalidad con sentimientos.

    El problema mayor de una AI, no es que no tenga conciencia, o la simule es que no tiene creatividad. Muchos diran, que las imágenes estilo DALLE-2 son artísticas. Aceptemos que son bonitas y que es un resultado excelente lo que muestran. Pero en realidad no dejan de ser un cóctel de imágenes sujetas a cierta variabilidad, gracias entre otras cosas a su algoritmo. ¿Es creativo el uso de una función RANDOM para crear imágenes? ¿Y para barajear unas cartas también?

    Que haya personas que asuman cierta inteligencia a una máquina puede ser desastroso si esa persona tiene una capacidad de decidir sobre otras personas usando esos sistemas. ¿Que creatividad puede tener un prestamista si sus decisiones son copiadas de su histórico?¿Y un recruiter de RRHH?¿Y un juez de vigilancia?¿Y un triaje médico? etc etc

    • Gorki - 7 noviembre 2022 - 14:52

      . Muchos dirán, que las imágenes estilo DALLE-2 son artísticas. Aceptemos que son bonitas y que es un resultado excelente lo que muestran. Pero en realidad no dejan de ser un cóctel de imágenes sujetas a cierta variabilidad gracias entre otras cosas a su algoritmo.

      ¿Pero el resultado es artístico o no lo es?. ¿Los pintores que hacen «collages» son o no artistas, utilizan un coctel de cosa pintadas por otros?. Pon Collage en el buscador de imágenes de Google y veras resultados sorprendentes a los que nadie duda su derecho de autor. Habrá que redefinir lo que es arte y lo que es creatividad

      El cuadro de Mondrian que se ha pasado colgado en un museo 80 años al revés, ¿Es creatividad o no?. Yo puedo fácilmente hacer un programa que sin descanso «pinte Mondrians», es algo que está a mi alcance, pero ni yo, ni mucho menos mi programa, es capaz de seleccionar aquellos que contengan ARTE, por que para ello es preciso mas SENSIBILIDAD de la que tengo.

      Pero por fuerza alguno habrá, que firmaría Mondrian. ¿Mi programa hace arte o no hace arte.?

      • JPR - 7 noviembre 2022 - 16:04

        Los cojines que hacía mi abuela al ganchillo eran arte. Lo demás….

        Si leo los posts de arte de un tal Felix Maocho. Pues me parecen que esas fotos de arte son bonitos.

        ¿Son arte? Pues joder también que eres muy salao !!

        Hasta las fotos de calendario de un camionero son arte si tu crees que lo son. Que si Gorki que nos has convencido.

        Hablando de salao

        ¿Esto es arte?

        https://blogs.publico.es/strambotic/2019/05/retrato-de-mierda-de-santiago-abascal/

        Un artista pinta un retrato de Santiago Abascal con su propia mierda (la del artista)

        Y si la enlata, hubiera sido apoteósico. !!!

        Pero creativo el DALLE-2 no es. Por mucho que te lo parezca. Es un algoritmo que sigue unas reglas. Que tu las desconozcas, no significa que esas reglas no estén ahí

        • Monet - 7 noviembre 2022 - 16:45

          El arte tiene sus reglas d igual los artistas las siguen, como por ejemplo el de la perspectiva, entonces los artistas que siguen un proceso y reglas ya no hacen arte?

          • JPR - 7 noviembre 2022 - 17:02

            Un artista, siguiendo reglas…

            ¡¡¡¡vaya mierda de artista… !!!!

            Se quedará para pintar políticos con sus excrementos

            “Quisiera pintar como el pájaro canta”
            Claude Monet.

        • Gorki - 7 noviembre 2022 - 18:21

          ¿Qué crees que enseñan en las academias a los pintores sino son las reglas del arte? ¿Por que se pasan copiando escayolas un par de años? ¿Son reglas las proporciones, las normas de composición, el uso de las sombras,… ?

          Por cierto el retrato de Abascal, si no genial, bastante bueno. Lo que no me esperaba era que fuera tan realista, pensaba mas bien algo así como la caricatura que Picasso hizo de Hitler. https://www.abc.es/cultura/caricaturizo-picasso-hitler-homenaje-paul-klee-20220819151027-nt.html

          • JPR - 7 noviembre 2022 - 19:46

            Gorki

            Mira se me ha ocurrido una frase buena, seguro que no es ni original:

            «Hay que conocer las reglas, aunque sea para romperlas»

            Por cierto, siempre he oido que las acuarelas de Hitler eran malas. Pues seguro que la mayoría de nosotros pintamos peor….

            https://www.google.com/search?source=univ&tbm=isch&q=acuarelas+de+Hitler

            Pero no me hagas caso, que yo no entiendo de arte. Solo entiendo de lo que no es arte.

  • #026
    Alberto Paucar Loli - 7 noviembre 2022 - 12:39

    El machine learning, inteligencia artificial puede ser un proceso estadístico avanzado alimentado con Miles de datos, información que produzca una respuesta particular lo que es muy impresionante por la velocidad, precisión, lo que no se alimenta con datos es la imaginación, la creatividad connatural, ahí es la diferencia entre la machine y el human brain

  • #027
    Xaquín - 7 noviembre 2022 - 12:47

    No es inteligencia, es otra cosa.

    Resulta muy curioso la falta de curiosidad de mucha gente, que se quedó con la copla de que la inteligencia se puede medir y que tiene mucho que ver con el uso de la memoria y otras «artes casi culinarias» (mentalmente).

    Aún colea el famoso CI, que resultó mucho peor que el abuso actual de la IA, o de la AI o de el SID (síndrome de inteligencia disipada). Y ya sin meterse en inteligencia emocional o diversas variedades neuronales (circuitado), que la neurociencia no se cansa de decir, que estamos a años luz de tener idea más allá de un 5% de su esencia.

    Si realmente, poco más saben los gurús que sabía el Ramón y Cajal. Y, desde luego, la afición por emparejar cerebro humano y cerebro electrónico no ayuda en demasía. Lo cual no quiere decir, que no podamos jugar a las semejanzas, en aquellos aspectos donde son muy similares.

    Pero bueno, también hay que reconocer que, igual que pasa con el Musk, hay un gran desprecio por un posible grado de empatía, con el papel de los algoritmos a la hora de aconsejar (filtrar artificialmente) una serie de datos. Que siempre ayuda al necesario filtrado mental posterior. Hasta en el resultado de una simple multiplicación, conviene fijarse si el resultado es lógico o no.

    Porque no cabe duda de que la tecnología está para ayudar a la especie humana, perjudicando lo menos posible, tanto a ella misma como a otras. Inicialmente. Luego están «los malos» (parcialmente inteligentes), que la usan como bien sabemos.

  • #028
    Chipiron - 7 noviembre 2022 - 14:08

    La verdad es que hoy, con la excusa de la denominación de ML como IA o viceversa, nos plantea un debate muy filosófico y profundo.

    Según mi punto de vista, deberíamos empezar por contruir la casa por los cimientos y identificar «the elephant in the room», la propia definición de los conceptos

    – Que es inteligencia?
    – Que es consciencia?

    Creo que definir, con rigor científico, estas dos cuestiones ya sería un gran avance en sí mismo.

    Por ejemplo, con la tecnología actual hay sistemas que usan algoritmos ML para hacer tareas que hace 50 años nadie dudaría en decir que se requiere de «un ser inteligente» para llevarlas a cabo.

    En otras palabras, a medida que conseguimos nuevos avances tecnológicos que nos permiten distinguir determinadas capacidades de algunos ingenios respecto a la pura magia (parafrasseando como Enrique a Arthur C. Clarke), la definición comunmente aceptada de que es la «inteligencia» va cambiando, se vuelve más precisa.

    Yo diría

    • Gorki - 7 noviembre 2022 - 15:11

      Hablamos de algoritmos como algo moderno, cuando «algoritmo» es una palabra árabe, que llego a Europa, posiblemente de la India, con le dígito CERO o vacío. Algoritmo es solo un «Conjunto ordenado de operaciones sistemáticas que permite hacer un cálculo y hallar la solución de un tipo de problemas».

      Si nadie se asombra porque una máquina nos de instantáneamente el coseno de un ángulo, porque existe un algoritmo que calcula el coseno de los ángulos, no deberíamos asombrarnos que haya un algoritmo que diferencia las churras de las merinas, porque en esencia, es lo mismo, (vuélvase a leer la definición).

      Sólo que en los algoritmos clásicos, por ejemplo los que hacen cosas tan compleja como derivar, no se utiliza una posibilidad matemática, que es el cálculo de probabilidades. Mientras que en los algoritmos que diferencian churras de merinas, se utiliza las matemáticas de Bayes, que no dan resultados ciertos al 100% sino solamente probables.

      (A mi juicio), los algoritmos actuales deberían acompañar a la solución, el grado de certeza de la misma, pues no es lo mismo decir, esta es una churra con el 98% de certeza, que decirlo con el 58 %.

      • Chipiron - 7 noviembre 2022 - 15:52

        Muy interesante la definición como su origen arábico (junto con el concepto del cero, revolucionario en su dia) :-)

      • JPR - 7 noviembre 2022 - 16:20

        Gorki

        Cuando un algoritmo te dice que un gatito es un gatito, te lo dice con un margen de error. Otra cosa es que no se de visibilidad a ese porcentaje

        Por ejemplo

        https://www.juanbarrios.com/la-matriz-de-confusion-y-sus-metricas/

  • #032
    Victor Verges - 7 noviembre 2022 - 14:29

    Completamente de acuerdo Enrique, cuando puedas explica que es y que no es Big data, que ahora cualquiera con un excel de más de 2.000 items, está ya en un proyecto de Big Data.

    • Chipiron - 7 noviembre 2022 - 15:25

      Efectivamente, a todo le llaman «Big Data», cuando creo que hay hasta 5 condiciones o características para considerar que estás aplicando técnicas de «big data» a «un montón de datos».

      Copiado literalmente:

      «Big data is a collection of data from many different sources and is often describe by five characteristics: volume, value, variety, velocity, and veracity.

      Volume: the size and amounts of big data that companies manage and analyze
      Value: the most important “V” from the perspective of the business, the value of big data usually comes from insight discovery and pattern recognition that lead to more effective operations, stronger customer relationships and other clear and quantifiable business benefits

      Variety: the diversity and range of different data types, including unstructured data, semi-structured data and raw data

      Velocity: the speed at which companies receive, store and manage data – e.g., the specific number of social media posts or search queries received within a day, hour or other unit of time

      Veracity: the “truth” or accuracy of data and information assets, which often determines executive-level confidence

      Sin ser un experto en «Big Data» diria que lo más común es llamar BD a grades conjuntos de datos que SI están estructurados de una forma clara.

      Un saludo!

  • #034
    Chipiron - 7 noviembre 2022 - 14:35

    REPITO, QUE SE ME HA QUEDADO A MEDIAS (olvidad la entrada anterior):

    La verdad es que hoy, con la excusa de la confusión entre lo que es ML vs. IA , Enrique nos plantea un debate muy filosófico y profundo.

    Yo creo que deberíamos empezar por construir la casa por los cimientos e identificar «the elephant in the room», que no es otro que la propia definición de los conceptos «inteligencia» y «consciencia».

    – Que es la inteligencia?
    – Que es la consciencia?

    Sólo poder contestar o definir con exactitud y rigor científico lo que proponen estas dos interrogaciones ya sería un gran avance en el conocimiento en sí mismo.
    Sin ir más lejos, hoy en día tenemos sofisticados sistemas que basados en ML ejecutan tareas que hace 50 años nadie dudaría en calificar de inteligentes.

    En otras palabras, a medida que conseguimos nuevos avances tecnológicos, se va redefiniendo «que es la inteligencia» o «que tareas o actos son inteligentes». Cada vez se desglosa o describe el término con mayor precisión y exclusividad, descartando aproximaciones estadísticas como hace el ML, por ejemplo.

    Una vez dicho esto, creo que es fundamental diferenciar entre lo que muchos denominan (correcta o erróneamente) «narrow AI» frente a «General AI» o AGI.

    Por los comentarios leidos, creo que en la mayor parte de los casos los contertulios se refieren a ejemplos del primer tipo: «narrow AI» y cómo se confunde con ML.

    Pero hay gente que trabaja en AGI con diferentes aproximaciones. Para mi, uno de los grandes científicos llamados a ser uno de los padres y pilares básicos de la AGI es Doug Lenat. Lleva desde 1984 creando su sistema CYC (cyc.com), que no deja de ser «un conjunto de reglas de sentido común» que permiten, no sólo dar respuesta a preguntas formuladas en lenguaje natural, si no explicar el porqué de dichas respuestas.

    Se trata de un personaje (y proyecto) muy atípico y alejado de las modas actuales exclusivamente basadas en el ML, deep Learning, o ANNs.

    Y mi intuición personal me dice que está cerca de dar en la clave: Lleva 40 años perfeccionando el sistema bajo el radar, haciendo poco ruido y con mucha financiación del ejercito americano, sobre todo bajo la agencia DARPA. Según sus palabras, el sistema ya está cerca de empezar a aprender por si mismo alimentándose de la información disponible en internet, pues «su base de sentido común» está prácticamente completada (siempre según sus palabras).

    En el mundo de la VERDADERA AGI, es un tipo muy respetado. Para el que tenga tiempo, Lex Fridman tiene un podcast en el que le entrevista durante varias horas y que es muy interesante.

    Sólo haré un spoiler: Lex le pregunta que cual considera que será su mayor legado en un futuro, a lo cual responde que con su trabajo de más de 40 años (de él y todo su equipo), el codificar una «base de datos de sentido común» ya no se tendrá que volver a realizar.

    Puede que sea cierto o que todo sea humo. Que cada cual, una vez escuchado el podcast, decida por si mismo.

    Un saludo a todos!

    • Chipiron - 7 noviembre 2022 - 14:43

      Links:

      Empresa, CYC:
      https://cyc.com/

      Doug Lenat:
      https://es.wikipedia.org/wiki/Douglas_Lenat

      PODCAST CON LEX FRIDMAN:
      https://youtu.be/3wMKoSRbGVs

      • Gorki - 7 noviembre 2022 - 15:14

        No tengo tiempo para todo, pero lo veo muy interesante lo de la AGI. Lo exploraré cuando pueda.

        • Chipiron - 7 noviembre 2022 - 15:33

          Creo que te gustará mucho, Gorki.

          Si ves que necesitas más links al respecto, no dudes en pedirmelos.

          Un abrazo y cuidate!

        • Tadeu - 7 noviembre 2022 - 16:25

          Si el ingeniero creyente de Google perturbado por la conciencia de la máquina hubiera preguntado otras preguntas sobre la posible conciencia de la máquina habría llegado a otra conclusión y quizá opuesta.
          Como dice Richard Dawkins: el de la conciencia sigue siendo hoy por hoy the hard problema.
          Aunque sin ella … fin del libre albedrío y por tanto de todo el sistema básico social de la responsabilidad. GRACIAS A DANS POR SU ENTRADA CON TANTAS DERIVADAS!

      • JPR - 7 noviembre 2022 - 19:34

        Chipiron

        Me ha hecho gracia recordar este proyecto. Gracias por traerlo. No se si conoces este enlace, que acabo de encontrar,

        Aprenda cómo podemos superar la peligrosa incapacidad de las IA de aprendizaje profundo para racionalizar • Doug Lenat

        https://www.youtube.com/watch?v=v2rK40bNrrY

        Con el aura de estar en posesión de su verdad…

        Conocí hace años el trabajo de este hombre. Estrategias similares que empezaron en los 80s colapsaron. El crear un sistema experto ( es eso más que IA) con tal número de reglas es como mínimo inabarcable sin un gran equipo detrás.

        Hemos de reconocer que ha debido ser bueno en «vender» su idea para obtener algo de financiación, durante tantos años.

        Al final todo su misterio, se trata de tener una base de conocimiento de una infinitud de reglas ( 1 millón?). En fin.

        Que funcione la estructura de lógicas de predicados en una db de esa escala ya es en si mismo un milagro.

        Sin con los años que han invertido, solamente manejaran bien una fracción usable del «sentido común en lengua inglesa» sería un buen comienzo. Y no es sarcasmo.

        Las referencias comerciales que se encuentran de este producto son escasisimas, dos demos: Glaxo y una clínica. Y dos DB internas: terrorismo y ayuda para la enseñanza de matemáticas de pregrado.

        Sistema experto
        https://es.wikipedia.org/wiki/Sistema_experto

        Si de algo es ejemplo el esfuerzo de este equipo es de no compartir código, de no abrirse a open source y no querer captar ayuda de miles de voluntarios y el ser incapaces en estos años de un crecimiento exponencial.

        Vendehumos no me parece el hombre, un quijote con mala estrategia si.

        Creo que se autoevaluan ellos solos, con la página de cyc.com que tienen.

        • Chipiron - 7 noviembre 2022 - 21:40

          Hola JPR!

          Sí, en buena parte comparto lo que dices. Precisamente coincide con lo que ya he dicho, que no era «una empresa normal».

          Creo que está rodeada de secretismo pues una buena parte de la inversión la recibe de fuentes militares tipo DARPA.

          Si te escuchas el podcast, que es muy largo desgraciadamente, la verdad es que deja entreveer muchas cosas sobre como ha ido el proyecto y, según sus palabras (que nos podemos creer o no) en que estado se encuentra actualmente.

          Si lo que dice es cierto (cosa que no puedo asegurar), parece que el sistema ya tiene una base de datos con suficientes entradas como para decir que tiene «un sentido comun básico» a partir del cual puede leer textos y hacer nuevas inferencias de forma automática.

          Si fuera así (cosa que repito no puedo asegurar y pongo en suspenso) podría entrar en una fase de crecimiento exponencial automático. Y, como tu dices, habiendo sido financiada por los militares durante 40 años no creo que estuviesen dispuestos a abrir el código a cualquier hijo de vecino.

          Pero que Doug Lenat sabe de lo que habla y es un reputado científico en AGI (o al menos lo fué), es cierto. Es más, en los años 80 recibió varias distinciones a uno de los científicos con más proyección de futuro.

          El podcast es enormemente instructivo. Si más no, de lo monumental que es la tarea de construir dicha base de datos relacional y deductiva. Y el sr. Lenat explica algunas de las grandes dificultades con las que se ha ido topando a lo largo de estas 4 decadas de perfeccionamiento del sistema.

          En fin, para quien tenga tiempo y sepa inglés (de hecho se puede ver por youtube con subtitulos españoles), creo que es una interesante descripción de «la via alternativa» a la del deep learning y transformers que estamos viendo hoy en dia.

          Un abrazo y gracias por tu amabilidad.

          • JPR - 8 noviembre 2022 - 16:14

            Hola Chipi

            He estado investigando, es dificil saber algo cierto de esta CIA, el sumario es que creo al 80% que es un proyecto fallido, el 20% es por que no me casa llevar financiando un proyecto de «inteligencia militar» durante tantos años si no hubiera chicha.

            La coña, lo de inteligencia militar no cuadra mucho lo sabemos, han financiado a gente que dormía cabras, asi que los militares también la pueden cagar

            Lo del 80% me baso es que las premisas de este hombre no me cuadran

            En los 80´s existía ya C y C++ estaba ahí en Bell Labs desarrollándose. Así que no me trago que necesitaran hacer un lenguaje adhoc, cuando además desde los 70’s existía PROLOG, y en los 80’s LISP.

            No necesitaba crear un lenguaje (salvo que su proyecto sea una tapadera muy adornada)

            El espacio que se aboga Doug es el mismo que WATSON IBM. Uno es una historia interminable y otro es una historia de éxito
            https://en.wikipedia.org/wiki/IBM_Watson

            Es lo mismo !!!!

            Pero lo de CYC es una chapu!

            Y los videos actuales, que quieras que te diga, bla bla bla. Solo le falta citar a UMMO

            Además hoy en día Watson, se ha quedado fuera de la escena ( Y ojo que debe reacudar 1B$) desde el pto. de vista de ML, solo hace NLP, en deep learning, le han superado google, OpenAI ( si tu amigo MUSK), FB, etc… joder hasta MS. Que ya es superar.

            Así que consejo de amigo probabilístico (de peleas eso si) no pierdas el tiempo con CYC, piérdelo mejor con tu R del alma

            PS: Ya en otro comentario nos peleamos

          • Chipiron - 8 noviembre 2022 - 17:10

            No nos tenemos que pelear, sólo tenemos opiniones diferentes y debatimos sobre ellas.

            No te lo debes tomar personalmente, hombre.

            En lo de CYC ni estoy de acuerdo ni en desacuerdo con lo que dices. Me refiero a que veo que es una empresa «muy oscura» y por lo tanto no puedo evaluar bien sus logros/fracasos.

            En cualquier caso, el unico tiempo que he perdido con CYC ultimamente es el podcast de LEX FRIDMAN.

            Y ojalá le pudiese dar más a R. Amado R? Pues no se que decirte… tiene sus pros y contras, pero en biomedicina, junto con Python, es el stándard en el que se suele programar y publicar.

            Pero no, R no es mi preferido.

          • Enriqueta la que no tiene ética - 8 noviembre 2022 - 18:06

            Jorge Chipi

            Mariconadas las justas, si nos tenemos que pelear nos peleamos ;-))

  • #044
    Horacio Cantú - 7 noviembre 2022 - 23:51

    De momento creo que ha sido sobreutilizado el termino de iA, y a menudo se le atribuye a soluciones que no son de iA, la evolución de la tecnología abarcará tarde o temprano todas las áreas del trabajo humano, sin embargo estará creciendo lento ya que involucra el conocimiento profundo de áreas como, física, probabilidad y estadística, matemáticas avanzadas y áreas de Ti qué en muchos casos no están totalmente relacionadas, eso hace que una solución tenga qué contar con muchos actores especializados qué no comulgan mucho entre si.

    En las áreas de seguridad en donde hay mucho por hacer y en donde la iA puede resolver muchos problemas no se ha empezado a trabajar y cuando hablamos de eso parece que proponemos cosas de magos.

    Reforzando: » Cualquiere tecnologia lo suficientemente avanzada, es indistinguible de la magia» 3ra ley de Clark.

  • #045
    Dedo-en-la-llaga - 9 noviembre 2022 - 11:08

    Quizás habría que ponerse de acuerdo antes, en qué demonio quiere decir inteligencia natural, porque ya se da por sentada y luego de ella se deduce la otra, la supuestamente artificial… Craso error, máxime cuando yo, cuando me miro al espejo, no estoy seguro que nada de lo que veo sea completamente «natural», incluida mi supuesta «inteligencia». Concepto, que también se da por supuesto, pero ni de coña quiere decir lo mismo para muchos de los supuestos expertos en ella…

  • #046
    William Gómez - 12 noviembre 2022 - 14:21

    Mi área de trabajo es la robótica y creo que en todo momento están confundiendo inteligencia con conciencia. Inteligencia Artificial sí existe. Lo que no existe se llama CONCIENCIA ARTIFICIAL. A nivel de inteligencia una máquina es perfectamente capaz de tomar una decisión lógica al igual que nosotros, lo que no tiene es la capacidad de equivocarse y darse cuenta de su error sin que se lo hagan ver. Pura vida que confunden acá es el aprendizaje de máquina con IA. El Machine Learning corresponde a ciertas fases constantes de la inteligencia donde se abstrae información igual que nuestro aprendizaje mal llamado «natural», que no determina nuestra inteligencia. Todo Bot realiza Aprendizaje de Máquina pero no todo Bot posee IA y ningún Bot posee (aún) Conciencia Artificial.

  • #047
    Adelmo Romero Méndez - 13 noviembre 2022 - 19:51

    Imposible las TEORIAS, aún muy someras, para generar NUEVOS CONOCIMIENTOS aplicaciones y reingenierías tecnológicas.

  • #048
    Hugo David - 13 noviembre 2022 - 20:50

    Excelente articulo siempre me llama la atención que los medios tienen esa creida función de bajar al público general conceptos y a su vez ilustrar …. Que imagenes para la IA elige siempre el ilustrador ??? Pues un humanoide más o menos monstruoso. La tendencia a la sobresimplificacion termina transformando conceptos más abtractos que requieren un entendimiento previo a cuestiones coloquiales cada vez más fuencuente en las redes sociales y portales de noticias .

Dejar un Comentario a Tadeu

Los comentarios están cerrados