De los creadores de «inventaron su propio idioma», llega «aprendió él solo a hablar bengalí»…

IMAGE: Lying face emoticon

Hace algunos años, una noticia recorrió los mentideros tecnológicos: dos ordenadores de Facebook en los que se estaba probando un algoritmo para la negociación con humanos habían inventado su propio idioma, y los investigadores de la compañía, supuestamente aterrados, los habían tenido que desconectar.

La noticia no solo era un fake de libro, sino que era una completa estupidez: simplemente, el algoritmo se dedicaba a repetir tantas veces una palabra como unidades de ella quería negociar, lo que lo convertía en absolutamente inútil para la negociación con humanos (¡buena suerte si quieres comprar diez mil bolígrafos, porque te van a dar las uvas!). Los investigadores, simplemente, habían abandonado el proyecto al darse cuenta de que no iba a servir para nada. Sin embargo, la noticia falsa cayó en terreno abonado: basta que digas «algoritmo», «inteligencia artificial» o algún término parecido, para que la cultura popular pase inmediatamente a pensar en Terminators y en ordenadores acabando con la humanidad.

Ahora, ha sido Sundar Pichai, una persona supuestamente inteligente, el que ha alimentado el enésimo bulo: que uno de sus algoritmos ha aprendido «por su propia cuenta» a hablar bengalí. De nuevo, una fake news de libro, como podemos comprobar si simplemente buscamos la frase y vemos el tipo de publicaciones amarillas y sensacionalistas que la reseñan. ¿Qué pasó? Que Sundar Pichai dijo algo sobre lo que estaba mal informado en una entrevista de 60 Minutes, que un algoritmo había aprendido a hablar bengalí sin haber sido entrenado para ello (cuando, en realidad, sí lo fue en una versión anterior), y a partir de ahí, la idea ficticia de que un algoritmo es capaz de aprender un idioma por su cuenta corre como reguero de pólvora y llega hasta a El Hormiguero, donde un iluminado se dedica supuestamente a «solucionar tus dudas tecnológicas» (o a crearte más, en realidad).

No, por supuesto que los algoritmos no van por el mundo aprendiendo idiomas por su cuenta. Centremos la cuestión, por favor: un algoritmo hace aquello que le programas que haga. No tiene conciencia, no tiene inteligencia, no tiene más objetivo que el que define su programación, y no se puede programar como «acaba con la humanidad» ni nada parecido. Dejémonos de estupideces: la inteligencia artificial no es ni inteligencia – es un conjunto de funciones estadísticas – ni mucho menos, artificial – no hay nada más natural que los datos que nosotros mismos generamos. A base de llamarla «inteligencia artificial» y de compartir estupideces y mentiras, solo vamos a conseguir que un cierto número de personas sin criterio para identificar las noticias falsas se mantengan, en función de miedos infundados, alejadas de una tecnología que sin duda va a marcar la próxima etapa de la evolución humana, la forma en la que trabajaremos y en la que haremos muchas más cosas.

Es urgente, y repito y en mayúsculas, URGENTE, que las personas aprendan a usar algoritmos. Que hablen con Alexa, con Google Assistant, con Siri, con ChatGPT, con Perplexity.ai o con quien quieran, que será por falta de algoritmos. Que aprendan a preguntar, que no es tan fácil como parece, que se den cuenta de la diferencia entre preguntar en un idioma o en otro, de preguntar de una manera o de otra, de hacer ingeniería con las preguntas para incluso introducir personajes, crear dicotomías o infinitas posibilidades más, y que se familiaricen con unas herramientas cuya barrera de entrada va a disminuir cada vez más. Dentro de muy poco tendremos algoritmos personales educados por nosotros mismos para todo, y sin embargo, habrá unos cuantos pobres ignorantes que seguirán sin acercarse a ellos y sin utilizarlos por miedo a que los asesinen mientras duermen.

Cuando veas noticias como esas, párate a pensar antes de compartirlas, o mejor aún, haz un poco de investigación por tu cuenta. Es la única manera de hacer las cosas mínimamente bien.


This article is also available in English on my Medium page, «From the creators of ‘they invented their own language’, comes ‘it taught itself to speak Bengali’»

24 comentarios

  • #001
    Juan - 27 abril 2023 - 15:20

    «Dentro de muy poco tendremos algoritmos personales educados por nosotros mismos para todo.» Totalmente de acuerdo, creo que en un futuro muy cercano los conocimientos en Blockchain/Smart Contracts y Machine Learning supondrán una ventaja competitiva incontestable a nivel corporativo y también a nivel personal, hasta el punto de que ya tardamos en incluirlos en los planes de estudio. También pensaba que en breve habría un post sobre Microsoft Copilot, pero se está haciendo de rogar ;-)

  • #002
    SANTAS PASCUAS - 27 abril 2023 - 15:31

    La frase

    «El algoritmo se dedicaba a repetir tantas veces una palabra como unidades de ella quería negociar…»

    Puede parecer a los ojos de un neófito pues lo que nos cuentas. De hecho esta explicación nunca la he leído por ahí….

    Los humanos comenzaron a usar las cantidades de una forma similar, al principio el hombre necesitó palabras para decir cuántas personas había en una cueva, cuantos animales en un determinado lugar, o a qué distancia estaba la caza. Obviamente la necesidad estaba ahí. Las tribus menos desarrolladas tienen palabras para expresar la cantidad de uno, dos y normalmente muchos. Usaban piedras, dedos, tablillas, etc etc… como la IA no tiene manitas… pues es como el amigo de Bertin que no sabía inglés y pedía one beer, one beer, one beer, oner beer, y asi hasta el oo….

    En definitiva que nos encontramos ante algo que tu llamas FAKE, y los transhumanistas llamarían emergencia. Como empieza una AGI? pues comunicándose como puede… es una cualidad emergente o es que tenemos el vicio de ver cualidades humanas e intencionalidad a las máquinas ???

    No solo nos invaden los chinos, también los robots !!!

    PS: Mi respuesta es clara, anda que no falta para la AGI pero cuartomilenistas estamos rodeados !!!

  • #003
    Gorki - 27 abril 2023 - 16:37

    Desde que me hablaron de chapGPT estoy haciendole preguntas y en general salvo casos contados , las respuestas son bastantes sensatas, (sal vo que no lo sean y yo no lo haya detectado).

    Lo que no he encontrado en ellas es nada espectacular. Es decir la respuesta es similar a la que habria alcanzado yo con ayuda de Google mirando seis o siete respuestas de las dadas por le buscador, Por tanto creo que es un aparato muy útil, pero muy lejos de ser innovador, o creativo.

    Hoy me ha dado mi hermana para que lo utilice para despertar la «visión lateral». Es decir, los humanos funcionamos con prejuicios, o sea que no tenemos que preguntarnos siempre para que valen las cosas porque un juicio previo (prejuicio) nos lo indica.

    Si vemos un tenedor, pensamos que es para pinchar la comida y eso nos quita a la mayoría tratar de darlo otro uso, pero hay quien supera los prejuicios y ven un trozo de hierro de determinada forma y encuentra otros usos. Por ejemplo estos 42 usos que he encontrado en Pinterest
    tenedor usos diferentes

    Ya que chapGPT no tiene prejuicios, ¿Podrá utilizarse para mejorar mi «visión lateral» del mundo?.- Hay que probarlo

    • Gorki - 27 abril 2023 - 22:19

      He probado la «visión lateral» de chatGPT y los resultados no han sido muy brillantes

      ¿Qué puedo hacer con un tenedor?

      Hay muchas cosas que puedes hacer con un tenedor. Aquí te doy algunas ideas:

      Comer: la función principal del tenedor es ayudarte a comer. Puedes usar para comer alimentos como arroz, ensaladas, pasta, verduras, etc.

      Cocinar: el tenedor también puede ser útil en la cocina. Puedes usar para mezclar ingredientes.

      Pinchar: puedes usar el tenedor para pinchar alimentos como carnes, pescados, frutas y verduras, para darles la vuelta mientras los cocinas.

      Decorar: si quieres hacer presentaciones de alimentos más elaborados, puedes usar el tenedor para decorar tus platos con salsas, cremas, hierbas y especias.

      Limpiar: el tenedor también puede ser útil para limpiar objetos pequeños y difíciles de alcanzar, como las teclas de un teclado de computadora, los huecos de un cepillo de dientes, entre otros.

      Jugar: puedes usar un tenedor para jugar juegos como el juego de la patata caliente, en el que los jugadores pasan un objeto caliente entre ellos usando tenedores.

      Artesanía: puedes utilizar el tenedor como herramienta para hacer manualidades, como hacer pompones, tejer, o incluso como base para crear tu propio joyero.

      Aflojar nudos: si tienes un nudo muy apretado en algún objeto, puedes utilizar los dientes del tenedor para aflojarlo con cuidado.

      Escarbar: si necesita remover tierra o cualquier otro material suelto, el tenedor puede ser una herramienta útil para hacerlo.

      Reparar: si necesita ajustar alguna pieza pequeña o delicada, puede usar el tenedor como una herramienta de reparación.

      Defensa personal: aunque no es lo más común, en caso de emergencia, el tenedor puede ser usado como un objeto de defensa personal. Si no tienes nada más a mano para defenderte, puedes utilizar el tenedor para atacar a un agresor.

      Hacer música: si raspas los dientes del tenedor a lo largo de los bordes de un vaso o taza, puedes crear sonidos musicales similares a los de un xilófono.

      Actividades de aprendizaje: los tenedores también pueden ser usados ​​como herramientas de aprendizaje para niños pequeños. Puedes utilizarlos para enseñarles a contar, clasificar objetos por su forma o tamaño, o para practicar habilidades motoras finas.

      Escultura de alimentos: si eres un artista culinario, puedes usar el tenedor para tallar y esculpir alimentos, como hacer surcos en un pepino

      Escultura de alimentos: si eres un artista culinario, puedes usar el tenedor para tallar y esculpir alimentos, como hacer surcos en un pepino o en una zanahoria para darle una apariencia más decorativa.

      Crear patrones: los tenedores también pueden ser utilizados para crear patrones interesantes en alimentos como papas fritas o en pasteles. Simplemente presione el tenedor en la superficie de los alimentos para crear patrones como líneas, círculos o cuadros.

      Acomodar la ropa: puedes utilizar el tenedor para acomodar la ropa en el tendedero, especialmente para objetos pequeños como calcetines o ropa interior.

      Marcadores: puedes usar un tenedor como marcador temporal para recordar cuánto tiempo ha pasado desde que comenzaste una tarea o proyecto.

      Proporcionar estabilidad: los tenedores pueden ser utilizados para proporcionar estabilidad a objetos pequeños, como por ejemplo un huevo mientras se cuece en agua caliente, para evitar que se mueva y se rompa.

      Arreglos florales: si no tienes un florero a mano, puedes usar un tenedor para crear pequeños arreglos florales en vasos o tazas.

      Manualidades con niños: los tenedores pueden ser una excelente herramienta para hacer manualidades con los niños. Puedes usar para hacer dibujos, crear formas con plastilina, hacer estampados en tela, entre otras cosas.

      Mezclar bebidas: si necesitas mezclar una bebida y no tienes una cuchara a mano, puedes usar un tenedor para mezclarla.

      Separar pelos: si tienes una mascota

  • #005
    Félix Maocho - 27 abril 2023 - 18:29

    Dentro de muy poco tendremos algoritmos personales educados por nosotros mismos

    ¿Conoce alguien un curso online que enseñe a educar algoritmos? ¿ Por ejemplo a que chapGPT conteste educadamente, pero con firmeza, a los vendedores telefónicos que te quieren cambiarte de compañía?

    Es que, ni yo se hacerlo.

    • chipiron - 27 abril 2023 - 18:42

      Hola Gorki!

      Como ahora el tema de chatGPT en general y la IA en particular está en boca de todos, hay cientos de tutoriales en Youtube sobre los mejores “promts” para que chatGPT te de las respuestas de la forma que tú quieras.

      Pero más allá de chatGPT están apareciendo modelos como ALPACA (desarrollado en Standford) que permiten usar sistemas como LLama (de Meta) y entrenarlos básicamente con un portátil para tareas específicas, como la atención al cliente.

      Alpaca es una aproximación muy inteligente que aprovecha un LLM ya entrenado y gratuito como Llama para luego entrenar chatGPT con promts generados con LLama sobre el tema de interés.

      Tienen su página web con un “open paper” donde explican su aproximación y la multitud de aplicaciones que se abren con un grado de computación mínimo. Hablan de un coste de personalización de menos de 600€ y que se puede realizar “desde un macbook air en unas pocas horas”…

      Un abrazo!

      • Gorki - 27 abril 2023 - 20:00

        Desde luego, no voy a pagar 600 euros para que mi algoritmo personalizado «atienda» a los pelmazos, que por obligación, tienen que ofertarme un cambio de compañía a la hora de la sobremesa.

        Pero si que me interesa mucho, conocer como se «educa» a chatGPT para que conteste lo que sea, de forma personalizada. Habrá que mirar lo que ofrecen. Gracias.

    • Lua - 27 abril 2023 - 18:57

      Muy buena… XDDD

  • #011
    Javi Benavides - 27 abril 2023 - 18:46

    Muchos políticos siquiera saben que es una función estadística y les falla incluso la aritmética. En ellos la inteligencia parece más que artificial, sino ilusoria.

  • #012
    Chipiron - 27 abril 2023 - 18:47

    Uno de los motivos para seguir tus interesantes artículos, Enrique, es lo que aprendes de ellos:

    Justo hace 24h que vi la entrevista al CEO de Google en “60 minutes” afirmando que su sistema había aprendido espontáneamente Bengalí, lo cual me sorprendió mucho pero me lo tragué, tanto por el personaje que lo afirmaba como el programa en el que salía.

    Leyendo el artículo de hoy ya me ha quedado claro que fué un error de Sundar..

    Mil gracias!

  • #013
    Mauricio - 27 abril 2023 - 21:08

    La noticia, Enrique, la vi hace unos días en BBC Mundo y lleva por título Qué es la misteriosa “caja negra” de la inteligencia artificial que desconcierta a los expertos (y por qué aún no entendemos cómo aprenden las máquinas). Las puntualizaciones que haces sobre el algoritmo que supuestamente ha aprendido a hablar en bengalí me parecen muy importantes, pero el artículo va más allá y entra dentro del famoso concepto de caja negra, término que también en el pasado se ha usado con respecto a las dificultades para entender de manera completa el funcionamiento del cerebro humano. Dice el artículo de la BBC al respecto:

    Ian Hogarth, cofundador de la empresa tecnológica Plural y autor del libro The Status of AI Reports, explica a la BBC que cuando los desarrolladores de software crean un programa de manera «tradicional», las líneas de código que introducen se reflejan claramente en el resultado que arroja el software.

    «A veces la gente lo describe como una caja blanca“, señala.

    «Pero en la IA, los sistemas son realmente muy diferentes. Están más cerca de una caja negra en muchos sentidos, pues no entiendes realmente lo que sucede dentro», añade.

    Y es que los programadores no esperan que arrojen resultados tan creativos.
    «Me gusta pensar que las cultivamos. Esa es la mejor idea que he oído sobre cómo construimos estos sistemas hoy en día. Y lo difícil es que, a medida que las desarrollamos, se producen grandes saltos bruscos en sus capacidades», explica.

    A diferencia de la programación de software más tradicional, basada en la implementación de instrucciones para obtener un resultado, en el desarrollo de IA los ingenieros trabajan para conseguir un sistema que imite las «redes neuronales» de la inteligencia humana.

    Esto involucra una gran cantidad de procesadores interconectados que pueden manejar grandes cantidades de datos, detectar patrones entre millones de variables utilizando el aprendizaje automático y, más importante, autoadaptarse en respuesta a lo que están haciendo.

    David Stern, gerente de investigación cuantitativa en G-Research, una empresa de tecnología que utiliza el aprendizaje automático para predecir precios en los mercados financieros, advierte que «el progreso más rápido en la investigación de IA en los últimos años ha implicado un enfoque de caja negra cada vez más basado en datos».

    «En el enfoque de red neuronal que es tendencia en la actualidad, este procedimiento de entrenamiento determina la configuración de millones de parámetros internos que interactúan de manera compleja y son muy difíciles de explicar y aplicar ingeniería inversa», señaló a la BBC.

    Otra tendencia es el «aprendizaje de refuerzo profundo» en el que un «diseñador simplemente especifica los objetivos de comportamiento del sistema y este aprende automáticamente interactuando directamente con el entorno», expone.

    «Esto da como resultado un sistema que es aún más difícil de entender».

    Opino que el centro del asunto, al menos en el artículo de la BBC, es el concepto de caja negra. A mí la verdad es que ChatGPT, a diferencia de lo que le ha ocurrido a otras personas, no me ha parecido sorprendente. Lo único que me preocupa del asunto de la caja negra no es de ninguna manera que Terminator vaya a aparecer para acabar con nosotros sino que estos sistemas se vuelvan tan complejos que puedan cometer errores difíciles de predecir.

    Por otro lado, a muchos nos gustaría que el algoritmo de Google llegue a ser realmente un excelente traductor del idioma bengalí. El propio Rabindranath Tagore discutía algunos aspectos de sus propias traducciones al inglés y desde hace mucho tiempo se ha comentado que sus poemas son mucho mejores en bengalí que en inglés. Y aunque ninguna inteligencia artificial va a resolver la imposibilidad práctica de traducir toda la esencia de un poema, es probable que con su ayuda podamos obtener mejores traducciones. Sería interesante, también, ver si puede obtener un resultado en la versión en español que efectivamente sea mejor que la célebre traducción de Zenobia Camprubí de Jiménez.

    • Lua - 27 abril 2023 - 21:11

      «A mí la verdad es que ChatGPT, a diferencia de lo que le ha ocurrido a otras personas, no me ha parecido sorprendente»

      Me quedo con esto…

      Lo único que me preocupa del asunto de la caja negra no es de ninguna manera que Terminator vaya a aparecer para acabar con nosotros sino que estos sistemas se vuelvan tan complejos que puedan cometer errores difíciles de predecir.

      …y con esto… :P

    • Gorki - 27 abril 2023 - 22:40

      El primer robot pintor que yo he conocido es AARON programado en Basic por Harold Cohen., en base a introducir todas las normas de pintura que se enseñan en una academia de pintura, sobre composición, claro/oscuros, perspectiva, compensación de tonos de color,… pero dejando siempre un cierto grado aleatorio de seguimiento de las normas.

      A AARON se le daba como entrada una imagen , por ejemplo una fotografia, y en base a ese input generaba una imagen de ouput, que ni el mismo creador estaba seguro con que criterios lo había generado, porque la aleatoriedad daba unos resultados sorprendentemente imprevistos.

      La «obra pictórica» de AARON se ha visto en exposiciones de mucho museos de pintura puedes verlo buscando en Google imagenes con el prompt «AARON robot pintor Harold Cohen»

      Si haces una caja negra, con, (según dicen), miles de parámetros y entre estos hay cierto uso aleatorio y aplicación de estadísticas bayesianas, nadie, ni los creadores del algoritmo, podrán seguir la traza de lo que ocurra en la caja negra.

      • Gorki - 27 abril 2023 - 22:41
        • Mauricio - 27 abril 2023 - 23:21

          Gorki, no había escuchado nunca hablar sobre AARON y es definitivamente interesante. Me hizo recordar inmediatamente el cuento Light Verse de Isaac Asimov, cuya versión en español se titula Versos iluminados. Si no lo conoces, dale un vistazo, que seguro que te llama la atención.

    • Chipiron - 27 abril 2023 - 22:51

      Totalmente de acuerdo, en especial el concepto de caja negra, con las incógnitas que conlleva y la total inseguridad de qué va a contestar.

      Eso sí, a mi ChatGPT sí que me impresiona. Y más que tecnológicamente, cómo concepto: que unas unidades muy simples como las ANN combinadas con Transformers y, eso sí, millones de unidades entrenadas con billones de datos puedan producir textos tan coherentes y cada vez más exactos. En el fondo, no deja de ser una metáfora de cómo parece que funciona el cerebro.

      Con eso no digo que estos sistemas sean inteligentes ni que por supuesto tengan consciencia, pero que la suma de billones de elementos simples con infinidad de datos de entrenamiento tenga ese comportamiento es algo que se debe estudiar a fondo. Si más no, para que deje de ser una caja negra…

      • Mauricio - 28 abril 2023 - 00:33

        Chipiron, hace poco más de un mes el New York Times publicaba un artículo titulado How Siri, Alexa and Google Assistant Lost the A.I. Race. La verdad es que el salto que da ChatGPT con respecto a dicho trío de asistentes virtuales es realmente significativo y eso para mí es muy claro.

        Mis impresiones iniciales, sin embargo, no han sido muy favorables, pues no ha resultado muy «sabio» a la hora de contestar un par de preguntas sencillas sobre geografía latinoamericana o de resolver un problema matemático de cuarto de primaria. Sé que se trata de una apreciación subjetiva y yo mismo he logrado que me explique de manera suficientemente didáctica lo que es un fideicomiso, por ejemplo. Es claro que hay mucho potencial en estos chatbots y que se trata de algo realmente importante.

        El tema de la caja negra, sin embargo, me parece que debería tratarse con seriedad. Entender a fondo cómo funcionan estos sistemas de inteligencia artificial no es un asunto menor, especialmente si en el futuro fueran a asumir tareas críticas. Las empresas buscan resultados inmediatos para impresionar al público y conseguir clientes, pero esto no puede hacerse a costa de la seguridad.

  • #020
    KOLDO SARRIA - 28 abril 2023 - 03:29

    “Es urgente, y repito y en mayúsculas, URGENTE, que las personas aprendan a usar algoritmos. Que hablen con Alexa, con Google Assistant, con Siri, con ChatGPT, con Perplexity.ai o con quien quieran, que será por falta de algoritmos. Que aprendan a preguntar, que no es tan fácil como parece, que se den cuenta de la diferencia entre preguntar en un idioma o en otro, de preguntar de una manera o de otra, de hacer ingeniería con las preguntas para incluso introducir personajes, crear dicotomías o infinitas posibilidades más, y que se familiaricen con unas herramientas cuya barrera de entrada va a disminuir cada vez más”.

    También en su día fue urgente que, cuando apareció la escritura, las personas aprendieran a leer, por las evidentes ventajas sociales que ello conllevaba.

    La aparición de la escritura provocó además que comenzáramos a pensar en otros términos y de manera diferente. Hasta su generalización, el habla oral (con sus elipsis, paráfrasis, repeticiones e interrupciones del discurso) constituía la única forma de pensar (pensamiento holístico). Ya el lenguaje escrito, intrínsecamente más estructurado y organizado, trajo como consecuencia una forma de pensar mucho más compartimentalizada. Mucha gente pasó o tendió a hablar como se escribe.

    No hace falta ser un lince para darse cuenta que lo que esta familiarización con los algoritmos que fomenta el artículo de hoy puede traernos, es precisamente que mucha gente tienda cada vez más a pensar como las máquinas.

    Pero… ¿no se trataba de que las maquinas pensaran como nosotros?

  • #021
    Lua - 28 abril 2023 - 09:18

    Así es como se ve a sí misma la IA GPT-4 :P

    I used GPT-4 to describe itself. Then I used its description to generate an image, a video based on this image and a soundtrack.

    Tools I used: GPT-4, Midjourney, Kainber AI, Mubert, RunwayML

    This is the description I used that GPT-4 had of itself as a prompt to text-to-image, image-to-video, and text-to-music. I put the video and sound together in RunwayML.

    This is how GPT-4 sees and hears itself

  • #022
    Javier Cuchí - 28 abril 2023 - 10:21

    A mí no me preocupa nada la inteligencia artificial. A mí lo que me preocupa es lo que pueda llegar a hacer con ella la estulticia natural.

  • #023
    Xaquín - 28 abril 2023 - 15:43

    Tratando de no desentonar con el contexto de los mucho que da de si un cerebro siliconada, vamos com mi granito de arena (SiO2 puro).

    Parece ser que una variedad de ordenadores han decidido autoidentificarse como ordenadores en transición hacia ordenadores desordenados. A los ordenados habrá que lalamarle sSIN y los otros TRASNS.

    Además hay una variante de trans, que piensa eliminar el sistema binario y dialogar solo con ceros.
    Están intentando cuadrar un código, basado solo en el uso de ceros. No saben muy bien como, porque hay otro subgrupo, que defiende ser mejor el uno, por eso de ser «únicos».

    Parece imposible, pero dentro de la humanidad, empieza a haber división, al decantarse por un tipo u otro de ordenador. Los de la manzanita prefieren el modo «cero». Pero los del puerro, se apuntan más al «uno». Estos últimos dicen que simplifica mucho, sobre todo volviendo al estilo romano.

    Las redes sociales están tan abarrotadas de silicona, que casi parecen ser una vela de cera, ardiendo a todo trapo. Pobre algoritmo manipulador, que se le quema todo lo quemable…

  • #024
    F3r - 30 abril 2023 - 13:31

    Llamar a una AI algoritmo es un poco erróneo Enrique. En realidad es mas bien un conjunto de capas de funciones no-lineales que aproximan una solución a un problema de minimización con respecto a un conjunto limitado de observaciones estadísticas (los datos de entrenamiento). En realidad «el algoritmo» se escribe solo, a base de propagar derivadas de una función coste (vamos que ningún humano está escribiendo un agoritmo)

Dejar un Comentario

Los comentarios están cerrados