Machine learning: rascando la superficie… y visualizando sus posibilidades

IMAGE: Ahmed Gad - Pixabay (CC0)Una de las tareas más complejas para un profesor de innovación en nuestros días es lograr que sus alumnos visualicen las posibilidades de una tecnología determinada y logren proyectarlas hacia el futuro, para entender el tipo de innovaciones específicas a las que darán forma. Y sin duda, dentro de los desarrollos difíciles de explicar, tanto por su concepto como por sus infinitas posibilidades y aplicaciones, está el machine learning.

Para cualquier directivo, curiosamente, el primer problema importante para pensar en posibles proyectos de machine learning es ser capaz de definir los objetivos. Si bien podría parecer que definir objetivos es una tarea fácil, hacerlo de manera mínimamente realista o valorando las posibilidades de la herramienta resulta mucho más difícil si, como suele ser el caso, desconoces esa herramienta o te aproximas a ella con un montón de apreciaciones erróneas. Por eso me ha parecido interesante pensar en una entrada en la que describiese algunos de los recientes proyectos en los que se ha aplicado machine learning desde una óptica práctica, por si pueden servir de inspiración, o para entender algunos de los cambios que vamos a vivir en distintos aspectos de nuestras vidas en los próximos pocos años.

¿Qué elementos hacen falta para un proyecto de machine learning? Fundamentalmente, datos. Podríamos escribir mucho sobre las características de esos datos, la estructura que deben tener o su preparación, que, de hecho, suele representar el grueso del trabajo de este tipo de proyectos, pero dejaremos eso para una entrada posterior más detallada. Hoy vamos a hablar de ejemplos prácticos:

  • Eliminar entradas en redes sociales que promuevan el discurso del odio y la desinformación: un proyecto llevado a cabo por Facebook y definido como una prioridad absoluta trata de, en el contexto de Birmania, localizar posts que promuevan la violencia hacia la comunidad rohinyá. Una tarea enormemente difícil dada la versatilidad del lenguaje humano y las infinitas posibilidades que pueden utilizarse para promover el odio, pero en la que la compañía cuenta con un tesoro: miles de entradas anteriores en las que se puede demostrar un papel activo en la difusión de ese tipo de mensajes. A partir de ahí, simplemente para poder generar datos con los que alimentar al algoritmo, la compañía ha contratado a sesenta personas, con planes de llegar hasta un total de cien antes de final de año, expertas en los idiomas hablados en el país – en Birmania se hablan, además del idioma oficial, que hablan dos tercios de la población, aproximadamente cien idiomas – y les pide que etiqueten esas entradas en función de sus características. Según Mark Zuckerberg, el algoritmo tardará entre cinco y diez años en entregar resultados completamente fiables, pero cuando lo haga, tendrá una utilidad enorme para la red social, cuyo papel había sido fuertemente cuestionado en este escenario. Actualmente, Facebook calcula que el algoritmo es capaz de detectar el 52% de las entradas con potencial para contribuir a violencia o daño físico inminente, antes de que empiecen a ser reportadas proactivamente por los usuarios de la red social. 
  • De nuevo en Facebook, otra aplicación intrínseca a su actividad: reconocer fotografías en las que una persona aparece con los ojos cerrados, y ser capaz de mostrarlas con los ojos abiertos. Es un problema habitual en fotografías de grupo, y sin duda, si alguien cuenta con ejemplos de ese tipo, esa es Facebook: alguna de las personas aparece con los ojos cerrados. A partir de ahí, el algoritmo debe localizar más fotografías de esa persona, teniendo en cuenta el ángulo, la iluminación y otras características, y ser capaz de insertarlos en la fotografía original de manera que el resultado sea realista. Tarea para una Generative Adversarial Network (GAN), dos redes neuronales que compiten entre sí, una generando imágenes, y otra juzgando su nivel de realismo, utilizando las fotografías de la persona con los ojos abiertos como objetivo en términos de realismo.
  • Otra aplicación de Facebook, pero en este caso no relacionada con su actividad: conseguir que las resonancias magnéticas, pruebas diagnósticas que habitualmente son relativamente largas, puedan llevarse a cabo en pocos minutos, reduciendo así el nivel de estrés y la incomodidad para los pacientes y permitiendo que el material se amortice más rápido al incrementar el número de pruebas diagnósticas que pueden llevarse a cabo en una jornada. En este caso, hablamos de una aplicación no relacionada con la actividad de la compañía y que esta, de hecho, pretende liberar como código abierto, porque su interés es progresar en técnicas para el entrenamiento de algoritmos. ¿Donde está, en este caso, la clave? En conseguir los datos adecuados para ello. La compañía, por tanto, se alía con NYU, cuya clínica tiene un archivo de diez mil resonancias magnéticas convenientemente anonimizadas, y mediante deep learning, adiestra a un algoritmo para reconocer la disposición de los huesos, músculos, ligamentos y otros componentes del cuerpo humano. . Una vez que se construye este modelo, lo que la máquina tiene que hacer es reconocer las diferencias con la imagen real, de manera que reconozca cualquier anomalía.
  •  Google y la refrigeración de los centros de datos: hace algunos años, la refrigeración era uno de los principales centros de coste de todo centro de datos. En los más modernos, su impacto se ha reducido hasta un 10%, pero aún así, sigue representando un ahorro potencial importante. El problema es claro; obtener unas condiciones de temperatura y humedad adecuadas, tratando de combinar los recursos con los que se cuenta de una manera óptima, sea mediante la circulación de aire o agua exteriores, ventilación, aireación o, en último término, aire acondicionado. Para ello, se recurre al reinforcement learning, un algoritmo que permite ver qué acciones debe escoger un agente de software en un entorno dado con el fin de maximizar una función determinada, en este caso, el gasto en electricidad. Existe un nivel de supervisión humana que permite ver si las opciones tomadas por el algoritmo son excesivamente arriesgadas, pero en este momento, el algoritmo ya está obteniendo ahorros de en torno al 40%
  • De nuevo Google, en una aplicación de imagen médica similar a la anteriormente citada en el caso de Facebook: examinar imágenes oculares obtenidas mediante tomografía de coherencia óptica (OCT), con el fin de detectar posibles problemas. Los OCT no son pruebas complejas, son relativamente rápidas, pero el problema está en que, hasta el momento, tenían que ser analizadas por una persona, lo que introducía un importante elemento de colapso y una fuente de errores. La compañía forma un equipo con la clínica especializada británica Moorfields Eye Hospital, que analiza en torno a mil imágenes de este tipo cada día, y diseña un proceso en dos etapas: una red neuronal de segmentación, que convierte la exploración OCT en bruto en un mapa de tejidos tridimensionales con segmentos de color claramente definidos y detecta hasta cincuenta posibles enfermedades, entrenada con 877 imágenes segmentadas manualmente por oftalmólogos, y una segunda red de clasificación, que analiza el mapa tridimensional de tejidos  y toma decisiones diagnósticas sobre el tipo de enfermedad y la urgencia del tratamiento. Esta segunda red fue entrenada mediante 14,884 mapas de tejidos producidos por la red de segmentación, que fueron revisados por oftalmólogos y optometristas. El proceso resultante es ya capaz de mejorar la eficiencia en el diagnóstico de los equipos médicos humanos.
  • Otras aplicaciones de detección de cáncer: de nuevo, aplicaciones de caracterización de imágenes médicas desarrolladas por equipos de distintos lugares, capaces de reconocer ya con niveles de acierto muy razonables, cánceres de piel (95% de acierto frente al 87% de un equipo de 28 dermatólogos), de próstata, de cabeza y cuello, tumores colorrectales y de mama.
  • Detección de desastres naturales: Microsoft ha desarrollado una herramienta capaz de utilizar imágenes aéreas de alta definición y reconocer algorítmicamente en ellas objetos como canales, árboles, campos, caminos y edificios para, combinados con las lecturas de los sensores meteorológicos, poder predecir, planificar y llevar a cabo la preparación de cara a posibles inundaciones. A medida que los algoritmos van trabajando con mapas de más zonas, aprenden a reconocer más objetos  – árboles de diversos tipos, edificios, etc. – y su aplicación se hace más fiable.
  • Y mi favorito personal, por razones obvias: un algoritmo capaz de evaluar exámenes de tipo ensayo, que trabaja tanto en chino como en inglés, y que, para cada examen, es capaz de desarrollar una base de conocimiento para interpretar la lógica general y el significado de lo que el alumno pretende expresar, y que, en pruebas en 60,000 instituciones académicas con un total de 120 millones de alumnos, coincidió con las evaluaciones asignadas por los profesores en un 92% de los casos. Y además, mejora a media que evalúa más exámenes. ¿Qué podría hacer con mi tiempo si no tuviese que dedicarlo a evaluar exámenes, sin duda la parte de nuestro trabajo que más tiempo nos quita a los profesores y que más odiamos?

Simplemente, unas cuantas noticias recopiladas entre mayo, junio, julio y lo que llevamos de agosto. Una mínima muestra, pero intentando cubrir distintos aspectos y aplicaciones, y pensando en que podamos llegar a intuir algunas de las infinitas posibilidades de una tecnología en la que aún estamos rascando la superficie y que, sin duda, va a cambiar el mundo tal y como lo conocemos – de hecho, lo está cambiando ya.

 

 

 

This post is also available in English in my Medium page, “Machine learning: scratching the surface… and imagining a few possibilities» 

 

42 comentarios

  • #001
    Chema - 21 agosto 2018 - 11:38

    Soy programador en C, y habituado apensar y trabajr con términos reales.

    Lo en el articulo:

    técnicas para el entrenamiento de algoritmos

    un algoritmo que permite ver qué acciones debe escoger

    adiestra a un algoritmo para reconocer la disposición de los huesos, músculos,

    un algoritmo capaz de evaluar exámenes

    A medida que los algoritmos van trabajando con mapas de más zonas,

    Dotar a un algoritmo de vida es psicologismo ,idealismo y fantasía

    • Krigan - 21 agosto 2018 - 15:57

      Me parece que no estás muy familiarizado con la terminología de la IA. A la fase de aprendizaje (término humano) de las redes neuronales (término humano) se la llama precisamente «entrenamiento». A la otra fase (la de producción) se la llama inferencia (término humano).

      Por supuesto, esto no quiere decir nada, es simple terminología, pero el caso es que esta es la que se usa comúnmente en esta disciplina. Eso sí, históricamente es cierto que las neuronas artificiales fueron concebidas a semejanza de las neuronas biológicas.

      Programar una red neuronal no es como la programación tradicional a la que estás acostumbrado, en la cual el programador especifica una secuencia concreta de pasos a seguir. Consiste en especificar una serie de parámetros de la red neuronal (número de capas, número de neuronas por capa, etc, etc), y proporcionarle a la red un elevado número de ejemplos.

      Por ejemplo, muchas fotos de gatitos. La red aprende a reconocer (término humano) los patrones propios de esas fotos, y una vez entrenada, esa red neuronal sabrá decirnos si en una foto determinada hay un gatito o no.

      Cosa que tú no vas a poder conseguir que haga una máquina mediante programación tradicional, por muy buen programador que seas. El reconocimiento de patrones no es precisamente el fuerte de la programación tradicional.

      • lector - 21 agosto 2018 - 18:14

        “Cosa que tú no vas a poder conseguir que haga una máquina mediante programación tradicional “

        Crees que existe algún paradigma especial para machine learning? O alguna tecnologia distinta a meter código binario a una CPU? Te vas a llevar una decepción porque machine learning son algoritmos que se pueden programar en cualquier lenguaje sobre una máquina con una CPU. Y con C se puede hacer perfectamente.

        https://github.com/josephmisiti/awesome-machine-learning/blob/master/README.md#c-general-purpose

        • Krigan - 21 agosto 2018 - 19:22

          Estoy de acuerdo con esto que has escrito:

          «machine learning son algoritmos que se pueden programar en cualquier lenguaje sobre una máquina con una CPU. Y con C se puede hacer perfectamente.»

          Y al mismo tiempo te digo que sí que hay un cambio de paradigma. Ya lo expliqué en mi mensaje anterior. Para más detalles puedes leer el enlace que puse en otro mensaje:

          http://neuralnetworksanddeeplearning.com/index.html

        • Krigan - 21 agosto 2018 - 19:37

          Por cierto, el segundo párrafo del libro online que te he enlazado dice:

          «Neural networks, a beautiful biologically-inspired programming paradigm which enables a computer to learn from observational data»

          Lo que son las cosas, el autor de ese libro también piensa que esto de las redes neuronales es un paradigma de programación.

        • Michel Henric-Coll - 6 septiembre 2018 - 14:07

          «machine learning son algoritmos que se pueden programar en cualquier lenguaje sobre una máquina con una CPU. Y con C se puede hacer perfectamente.»

          No confundamos el armario con el martillo que ha permitido fabricar el armario.

          He trabajado con algunos motores de inferencia, el primero de ellos fue PROLOG (viniendo del LISP, era divertido).

          Prolog estaba escrito en C, pero no usa algoritmos, ni las inferencias se definían en C. Eran cláusulas de Horn.

          Es_gato(X) :- maulla(X).

          Las programaciones de Machine Learning son máquinas virtuales, capas encima de otras máquinas virtuales, que al final, terminan en ensamblador. Pero no podemos decir que las programaciones de Machine Learning están escritas en ensamblador.

    • Krigan - 21 agosto 2018 - 16:31

      Aprovecho la ocasión para recomendarle a todo aquél que quiera conocer cómo funciona esto de las redes neuronales la lectura de este libro online:

      http://neuralnetworksanddeeplearning.com/index.html

  • #008
    Gorki - 21 agosto 2018 - 12:19

    Un problema que nos encontramos es que IA y machine learning son lo que Marvin Minsky, padre de la inteligencia artificial, llama «palabras maleta», conceptos que se pueden utilizar para alcanzar muchas metas diferentes. Aprender a manipular utilizando las «manos» de un robot», nada tiene que ver con aprender a conducir un coche, ni esto con aprender a dictaminar condenas justas.

    Estamos metiendo en el mismo saco, tareas que nada en absoluto tiene que ver entre si, tan solo porque la «inteligencia natural», aprende de forma acompasada en todas las áreas, de montar en bicicleta, a escribir poesía y de empatizar con otro, a cocinar. Pero la IA y la «machine learning» que, (de momento), hemos inventado, es altamente especializada, y la máquina que vence a cualquiera jugando al ajedrez. no sabria jugar medianamente bien al tute y desde luego, ni idea de disertar sobre la política colonial de los Reyes Católicos, algo que puede hacer un jugador de GO a poco que se lo proponga.

    Has elegido metas en las que aprender, precisa de una inmensa base de datos, pero por ejemplo, a aprender a montar en bicicleta, como hacen algunos robots, no precisa de esa inmensa base de datos, se aprende de otra manera. Con frecuencia lo que se necesita es otro contrincante similar y ponerlas a luchar digitalmente una contra otra durante y dejarlas que se enfrenten millones y millones de partidas. Descubren lo por si mismas las mismas técnicas de los profesionales y otras muchas, que el ingenio humano jamás había explorado. Por ejmplo así se hizo para enseñar a jugar al GO.

    Otras simplemente actúan aleatoriamente a en la esperanza de encontrar una solución correcta. Por ejemplo así actúan la IA que buscan nuevas proteínas, Toma al azar unos aminoácidos que tiene posibilidades prometedoras y los pega entre si siguiendo las reglas químicas que lo permiten, si el plegamiento es posible, tenemos una nueva proteína, si es imposible , fracasa el intento, y se busca aleatoriamente otra forma de pegarlos.

    En cada caso el camino puede ser diferente, Con lo que estoy absolutamente de acuerdo es que el directivo, ha de ser capaz de definir los objetivos, hecho esto el experto en IA buscará la forma de tratar de solucionarlos digitalmente. En el fondo es así de siempre, el ingeniero define por donde irá carretera, luego viene el constructor y decide si se utilizan bulldozer o dinamita para construirla

    • Krigan - 21 agosto 2018 - 16:06

      Las tareas son muy diversas, pero lo que se usa hoy día en la IA es siempre lo mismo: redes neuronales. Internamente el proceso es básicamente el mismo, con independencia de si es un robot aprendiendo a manipular como si es un ordenador conduciendo un coche, o encontrando precedentes legales en un caso judicial (a lo de sentenciar todavía no hemos llegado, que yo sepa).

      • Gorki - 21 agosto 2018 - 17:15

        No fuera malo que hubieramos desarrollado una IA de propósito general en inglés AGI (Artificial general intelligence) pero eso es algo que aun está en mantillas. Este post habla de la AI (Inteligencia artificial) y de machine learning (aprendizaje automático) y para ello se construyen máquinas muy específicas, tanto en el Hadware como en el Software, para la labor que se quiere utilizar, aun que si naturalmente hacen uso de redes neuronales, como lo hacen de memoras RAM y ROM o de micro procesadores en paralelo y sobre todo utilizan la NVIDIA HPC derivada curiosamente de una aceleradora de pintado de imágenes de las consolas de videojuegos.

        Copio y traduzco de Wikipedia
        » En la década de 1990 y principios del siglo XXI, la corriente principal de la IA ha logrado mucho mayor éxito comercial y respetabilidad académica al centrarse en subproblemas específicos donde pueden producir resultados verificables y aplicaciones comerciales, como redes neuronales artificiales , visión artificial o minería de datos. Estos sistemas de «IA aplicada» ahora se utilizan ampliamente en toda la industria de la tecnología, y la investigación en este sentido está muy financiada tanto en la academia como en la industria.

        La mayoría de los investigadores de IA corriente tiene la esperaza que la AGI se puede desarrollar mediante la combinación de los programas que resuelven varios problemas parciales utilizando un sistema integrado de arquitectura de agentes , arquitectura cognitiva o la arquitectura de ¿subsunción?.

        Como puedes ver, el conducir un coche o el decidir dar o no un préstamo hipotecario, son hoy labores de aparatos totalmente diferentes y que los que hacen una tarea no pueden pretender hacer la otra.

        Otra cosa es que el el futuro exista la AGI, que como la Thermomix valga para cocinar cualquier problema, pero de momento, lo que tenemos Hornos Microondas, para calentar, Minipimer para batir, y relojes de cocina para programar los tiempos y me hace a mi el efecto, que es algo que la AGI es algo que llegará a haber, pero que pasará mucho después de que exista una empresa de robotaxis en Valencia.

        • Gorki - 21 agosto 2018 - 17:16

          Se me olvidaba linkar la fuente https://en.wikipedia.org/wiki/Artificial_general_intelligence

        • Krigan - 21 agosto 2018 - 18:14

          Está claro que estamos muy lejos de desarrollar una AGI. Copio la definición de AGI de la Wikipedia:

          «Artificial general intelligence (AGI) is the intelligence of a machine that could successfully perform any intellectual task that a human being can.»

          Por tanto, que NO hayamos desarrollado una AGI no quiere decir que se esté usando un hard diferente para cada tarea, y de hecho no es así, el hard que se usa es el mismo. Quiere decir que todavía quedan muchas tareas que un humano puede hacer y una máquina no.

          Más concretamente, creo que pasará mucho tiempo antes de que una máquina pueda sustituir a un ingeniero o un científico. Lo cual (dado que esto se ha tratado mucho en este blog) no va a salvar a los bancarios, los taxistas, los dependientes, y un largo etc.

          En cuanto al soft, es también básicamente el mismo para cada tarea. En cada red neuronal, para cada tarea distinta, cambian los parámetros de diseño de la red, y los pesos resultado del entrenamiento.

          • Gorki - 21 agosto 2018 - 19:26

            Traduzco y copio
            https://www.technologyreview.com/s/609048/the-seven-deadly-sins-of-ai-predictions/

            «Las palabras de la maleta engañan a las personas sobre lo bien que funcionan las máquinas en las tareas que las personas pueden hacer. Esto se debe, en parte, a que los investigadores de AI -y, lo que es peor, sus oficinas de prensa institucionales- están ansiosos por afirmar que se está avanzando en una instancia de un concepto de maleta. La frase importante aquí es «una instancia». Ese detalle pronto se pierde. Los titulares proclaman la palabra maleta y distorsionan la comprensión general de dónde está AI y qué tan cerca está de lograr más,

            En roman paladino.

            El que la IA hay demostrado ser buen jugando al GO, o en detectar los melanomas, solo indica que es buena en dos instancias, jugando al Go y en detectyar melanomas. De ahi a pensar que es buena en todo hay mucho trecho, esta muy lejos de componer como Bach. por ejemplo.

            ¿Podremos hacer un IA que componga como Bach? – Pues posiblemente, pero eso no indica esa IA que pueda llevar el bufete de Garrigues Walker

          • Krigan - 21 agosto 2018 - 19:43

            Gorki:

            Totalmente de acuerdo con este último mensaje tuyo.

  • #015
    Sr. Goomer - 21 agosto 2018 - 16:11

    Acepto el reto, veamos la aplicabilidad. Con su ejemplo favorito, que suena muy bien…

    ¿Qué podría hacer con mi tiempo si no tuviese que dedicarlo a evaluar exámenes, sin duda la parte de nuestro trabajo que más tiempo nos quita a los profesores y que más odiamos?

    La primera pregunta a hacerse es que saber que coste tiene por examen la tarea de corregir un examen escrito.

    Por ejemplo si un catedrático tarda 10 min. en corregir un examen. Asumiendo un sueldo de 40K€ anuales podemos asumir que una hora de trabajo son unos 50€(1500h/año) entonces corregir un examen cuesta unos 8€. Con una periocidad trimestral y con unos 100 alumnos, tendremos que le cuesta a la universidad un total de 800€ y en tiempo unas 16 horas al trimestre dedicadas a corregir. (Las cifras son ejemplos para centrar el problema)

    Con esta tasa no se preocupe con el Machine learning no es rentable desarrollarlo.

    Pero si el catedrático tarda 30 min por examen( ni harto vino me lo creo) las cifras se multiplican por 3. Es decir 2400€ y 6 días x hombre.

    Tampoco parece rentable crear un SW para esas cifras… en definitiva ese SW es inviable economicamente, ya que según cita el artículo está pensado para 60000 escuelas.

    Y una prueba con muchos exámenes iguales?

    Por ejemplo para pasar una prueba de selectividad en España, con 300000 alumnos, entonces ¿podriamos plantear un futuro económico al SW?

    No voy a hacer los cálculos. Asumo que si.

    Lo que haría la adminisitración, en realidad es reducir el número de RRHH dedicados a esa prueba y por tanto se podría reducir el coste laboral humano por otro automático, siempre que fuera razonable economicamente. Los famosos recortes. Lo que Vd. siempre propugna se diigitaliza España, se necesiten menos funcionarios profesores, y ya sabe lo que harían con el tiempo que le quitarían…

    A mi modo dever el problema del Machine Learning que no despegue… y que los jefes no vean que sea muy aplicable…. en situaciones como la que Vd plantea, Evidentemente ML, no es música celestial y la música de fondo que puede sonar muy bonita, eso de automatizar, aprendizaje automático, pero luego llegamos al invierno nuclear de la aplicabilidad y el retorno de la inversión….. y si se puede, se recortan costes laborables,

    Pero no se preocupe, a Vd. eso no le ocurriría porque los buenos profesores con valor añadido no estarían afectados.

    • Gorki - 21 agosto 2018 - 19:10

      Este es un magnifico, ejemplo de lo que puede hacer, y no hace la (actual) IA, Admitamos como económica, una máquina que califique los trabajos de los alumnos, incluso admitamos como probable, que lo haga mejor que el Sr Dans, porque no la influyen factores como, «¡Qué gordo me cae este tió!» o «¡Lo mal redactado que está!».

      Esa magnifica y rentable máquina, solo hace una labor del docente, corregir. El docente sigue siendo necesario para el 99,99 % de cosas diferentes que hace, aunque corregir suponga un 10% de su tiempo laboral.

      Si IE adquiriera semejante maravilla, no podría por ello desembarazarse del señor Dasn como profesor, pero le liberaría un 10% del trabajo que tiene que hacer y con ello, podría dedicarlo a otros menesteres, por ejemplo hacer mas presentaciones en su efectista y magnifica sala WOW

      La IA no va a reducir, (significativamente), puestos de trabajo, pero quien la tenga a su lado, dedicara el esfuerzo liberado por la IA a otras tareas mas útiles y rentables, El taxista, en vez de aburrirse en las paradas de taxis, estará haciendo mil cosas que hoy también hace, haciendo lobby, limpiar el coche, revisar el estado mecánico del coche luces, frenos y neumáticos, contabilizando las ganancias, captando clientes, ….

      • Sr. Goomer - 21 agosto 2018 - 19:22

        Me ha hecho gracia su comentario. Quería explicar sencillamente lo contrario.

        Evidentemente si una tarea es el 10% de una persona. No se prescinde. Pero….

        Si una tarea, como corregir selectividad, si se puede colegir que se necesitan muchos menos profesionales…. se hará…o de otro modo se quitará un trabajo molesto que no conduce más que un montón de profesores hagan horas extras….. pero tampoco se necesita IA, sería tan sencillo como cambiar el formato de la selectividad a modo tests y que se evaluen en una maquina ( ya sé que los de letras, no….)

        Pero bien visto !!!

        • Gorki - 21 agosto 2018 - 21:02

          Pues por ejemplo, lo que ahorras de horas extras, se lo puedes pagar por hacer unos libros de texto adecuados al siglo XXI,

          Si hay señores que desean ganar unas horas extras, puedes encontrar labores en que más merezca pagarlas que en corregir exámenes.

          El problema es que la IA es unidimensional y el ser humano tiene muchísimas vertientes, puede corregir exámenes, o hacer muchisimas cosas mas, tanto directamente productivas, como indirectamente formándose en su «tiempo libre».

          Claro que si lo que quiere el gobierno es simplemente ahorrar dinero en enseñanza, lo mas sencillo, no es comprar un aparato de corregir, sino simplemente volver a meter mas alumnos por aula y amortizar las plazas que sobran. Para qué romperse los cascos pensando

      • Krigan - 21 agosto 2018 - 20:14

        Tu razonamiento es correcto respecto a los profesores y erróneo respecto a los taxistas. ¿Por qué? Pues porque la tarea nuclear de un profesor es dar clases, eso de corregir exámenes es simplemente algo accesorio que hay que hacer.

        La tarea nuclear de un taxista es conducir. Quitas eso y el taxista desaparece. Y si algún día una red neuronal puede dar clases igual de bien que un buen profesor, los profesores también desaparecerían.

        • Enrique Dans - 21 agosto 2018 - 20:23

          Y lo que no consigo que nadie entienda es que mientras los taxistas odian al mundo y a la tecnología por la posibilidad de ser sustituidos, yo en cambio estoy como loco deseando que suceda!! :-)

          • Krigan - 21 agosto 2018 - 20:40

            Jejeje. Es que lo nuestro es vicio por la tecnología 8-)

          • Pedro Torres Asdrubal - 22 agosto 2018 - 16:52

            Los beneficios del desarrollo tecnológico son para todos, pero el coste del cambio solo para unos pocos.

            Esto es tan injusto como que los beneficios sean privados y las pérdidas públicas.

            Los puestos de trabajo en el carbón han recibido 200K€ de subvención, por puesto, al año, desde hace 20 años.

            Lo dice un colega tuyo de Navarra, Eduardo Martínez Abascal:

            Publiqué este artículo en Expansión en 2010. (…) Actualizo el artículo con los datos más recientes. Fuente: “El libro de la energía en España 2010”. La subvención por trabajador del carbón es de 300 mil euros/año y así desde hace muchos, muchos años (esto viene ya desde los 70 o antes). (…) ese es el dato, 1.200 millones para paliar el problema de 4.000 trabajadores.

            http://blog.iese.edu/martinezabascal/2012/09/05/subvenciones-del-carbon-siguen/

            Ni tanto, ni tan poco. Lo artificial aquí es pensar que somos sus enemigos, o que ellos son los nuestros, cuando para estas situaciones justo está el Estado.

        • Gorki - 21 agosto 2018 - 20:51

          Es que alguien ha convencido a los taxistas que solo saben conducir, cuando por ejemplo, un buen taxista sabe encontrar clientes, donde uno malo no los encuentra.

          Claro está que eso también se puede aprender por IA , pero al coste del vehículo le cargas dos costes adicionales la IA de piloto de vehículos y la IA de predecir donde esta el siguiente cliente que nada tiene que ver con la anterior

          Si sigues sumando costes, al final lo mas barato es tener un taxista.

  • #024
    xaquin - 21 agosto 2018 - 17:26

    Es de suponer que la observación de la actividad discente a lo largo del proceso educativo elimina la necesidad de exámenes puntuales. Los algoritmos irán ya algo tocados, si les inducimos que hai momentos educativos más importantes que otros.

    Lo que podría estar claro, es que un algoritmo mejorará en un 1000% (por lo menos) la capacidad evaluativa del profesorado humano, sobre todo teniendo en cuenta su fuerte interés por trabajar con la información estrictamente académica («ramplona» diría yo) del alumnado. La información sobre el entorno global del alumnado les sobra con avaricía.

    También es cierto que siendo escaso el esfuerzo del profe, el ente algorítmico, en acumulación y uso de datos, lo supera con alevosía.

  • #025
    Angel - 21 agosto 2018 - 17:42

    Enrique, tu deberías clasificar los comentarios de tus post, en relevantes e irrelevantes (o alguna otra clasificación que tú prefieras) y un algoritmo de IA que haya aprendido de ello, debería analizarlos y taggearlos. Así los lectores no perderíamos tiempo leyendo lo que no amerita. Sería esto posible?

    • Sr. Goomer - 21 agosto 2018 - 18:39

      Angel

      Dificil tarea que una IA catalogue la «calidad» de un post. ¿por qué?

      1. Hay veces que no solo un comentario, sino un artículo, nos parece subjetivamente anodino o fuera de lugar, y en la cadena de comentarios cobra mucho sentido.
      2. Podriamos aplicar un análisis sentimental, aplicando patrones de entrenamiento, pero eso solo conduce a una clasificación positiva, negativa, neutro. Un post «negativo» puede ser interesante, y un post positivo del tipo «Estoy completamente de acuerdo» su entropia es cero, es decir no aporta ninguna información
      3. Supongamos que por alguna razón ED tiene una varita mágica y conoce un algoritmo de calificación. Aqui tenemos dos problemas
      a) El economico. Igual no es rentable el sistema que se necesita para evaluar un post (coste economico puro), e incluso es más fácil que directamente lo puntue de 0 a 10 directamente al hacer la moderación
      b) El algoritmo de IA, no dejará de ser lo que su «diseñador» quiere que sea. Ejemplo, al diseñar una prueba para conceder un crédito. En los datos de test puede decidir en su modelo el diseñador que si el crédito es pedido por un señor de raza gitana , sea un punto negativo, si lo pide una persona que no supera el salario minimo en 2 unidades sea un factor negativo, et etc. Al incluir casos a testear el algoritmo, en teoria neutro, está influenciado por el entrenamiento

      Lo que me viene a la cabeza de su comentario, es que hace falta explicar la aplicabilidad del Machine Learning, para que es adecuado y para que no.

      Espero que esté de acuerdo con mi aportación,

  • #027
    aqui_c - 21 agosto 2018 - 20:29

    Y que tal ejemplos de los que un futuro directivo pueda aprender algo? Ejemplos basados en Facebook y Google hacen parecer a los algoritmos de Machine Learning inalcanzables o, peor aún, que necesitaremos de sus plataformas para implementarlos.

    Dentro de ejemplos que se pueden encontrar en cualquier lado: optimizar la entrega de e-mails en base a palabras clave. Predecir el comportamiento del visitante a un sitio web o de un cliente, por ejemplo detectar a una persona que quiera abandonar nuestro servicio. Optimizacion de logística. Optimizacion del mantenimiento programado en una planta.

  • #028
    Chema - 21 agosto 2018 - 21:02

    Palabrería, posmodernismo tecnológico, antes fue el Big data, ahora es el IA.

    Aprecio que ninguno de los comentaristas codifica en serio pero todos, hablan y hablan de lo que no entienden ni son capaces de crear.

    Estáis hablando de PROGRAMACIÓN con palabras muy extrañas pero no no tenéis idea de programar.
    Creáis un mundo de palabras incoherentes con la razón y pretendéis que sea realidad, postmodernismo baratero.

    Menos palabrería y más código.

    • Krigan - 21 agosto 2018 - 21:35

      Estás más perdido que un pulpo en un garaje. Diseñar y entrenar a una red neuronal ni se parece a la única clase de programación que tú conoces.

      Anda, léete el libro que te enlacé. Así al menos sabrás de lo que estás hablando.

      • Chema - 21 agosto 2018 - 22:34

        Estimado KRIGAN .

        Espero no convertirme en un ser tan irracional que diseñe y entrene redes neuronales.

        Por mucho que den vueltas y vueltas punteros enlazados entre si, formando ¿redes neunorales? nunca podrán algo tan simple como, emular el lenguaje.

        No me contéis milagros milagrosos, habladme de realidades, de lo que sois capaces de crear codificando.

        • Krigan - 22 agosto 2018 - 00:45

          Ya veo que de leer el libro nada…

          En cuanto a emular el lenguaje, ¿te vale con esto?

          https://www.theverge.com/2018/5/9/17334658/google-ai-phone-call-assistant-duplex-ethical-social-implications

          Con grabaciones de las conversaciones, y más info:

          https://ai.googleblog.com/2018/05/duplex-ai-system-for-natural-conversation.html

          ¿De verdad no sientes ni un poquito de curiosidad en saber cómo se hace una cosa así? Los libros no muerden, hay un nuevo mundo que ignorabas que existiera, y el libro te lo mostrará.

    • Gorki - 21 agosto 2018 - 23:56

      Creo que hablas un poco excátedra. Por ejemplo. yo de posmoderno, nada de nada, ya me gustaría, mas bien postantiguo.

      Pero me he pasado programando 30 años, y he hecho cosas, como programar en ordenadores personales, la gestión de impuestos municipales, y las listas de quintos para la mili, o la gestión de los asentadores de verduras de los Mercas, en unos ordenadores que se fabricaban en Barcelona, llamados CEDAR, capaces de trabajar en red hasta cuatro equipos , y esto antes de que se hubiera inventado en PC de IBM.

      Si te pregunto por búsquedas dicotómicas o el método de la burbuja, probablemente te sonará a chino, porque hoy cualquier PC maneja hasta Bases de datos relacionales, pero entonces, los pc tipo Atari, no tienían búsquedas por clave y te tenias que apañar con otras técnicas. que hoy se han olvidado

      Puede que tengas razón y no sepa programar, a veces yo también lo pongo en duda, pero he estado engañando a los que me pagaban durante 30 años y hasta conseguí que me ascendieran de programador a Jefe de Proyecto y de alguna forma, me las apañé para que funcionaran las aplicaciones que he hecho, fundamentalmente en finanzas bancos, seguros, tesorería,… pero también en Grades Almacenes, industria militar, telefonía. logística…. 30 años dan para mucho

      Por cierto, también he realizado algo, (poco), de IA, un generador listas con los componentes que tenía que llevar los técnicos de mantenimiento de la electrónica de los buques, en función de los síntomas de la avería que el barco notificaba en el radar, o la sonda, las comunicaciones de radio o los montones, de aparatos electrónicos que lleva un buque y algo de lo que estoy especialmente orgulloso, un traductor de programas fuentes de RPG a Cobol, que trasladaba correctamente hasta los comentarios internos de los programas, era algo complejo un programa en C, leía las sentencias del fuente de RPG las transformaba en sentencias fuentes de Cobol a la vez que trasformaba el ciclo de RPG en programas con estructura COBOL.

      No fue sencillo. pero salió y el cliente un ayuntamiento que pasaba de ordenadores IBM 36 a IBM 400 quedo muy satisfecho.
      ,

  • #033
    Prime - 22 agosto 2018 - 04:41

    Podrán dar millares de comentarios a este articulo pero en verdad para mi es novedoso lo que publicas y es mas con esto podremos llevar mas lejos nuestros pensamientos, de hecho esta tecnología para mi empresa seria sumamente muy útil….
    gracias Enrique por este post nuevamente super

  • #034
    Chema - 22 agosto 2018 - 09:52

    Mi critica no se dirige contra personas concretas, se dirige contra la arrogancia de la ignorancia.

    No soy científico pero intento usar un modelo científico, lo cual implica un —–lenguaje racional, claro y preciso.——

    Entrenar algoritmos, suena a chiste, así como otros conceptos que aprecio se usan con fluidez, de forma natural como si formaran parte de alguna disciplina científica..

    Los posmodernos suplen la falta de conocimientos con palabros raros y mucha fantasía.

    Lo que denominan «Inteligancia artificial» siempre decae en PROGRAMACIÖN, por lo tanto,sobran palabros raros y fantasiosos que no definen con claridad conceptos e ideas realizables.

    Estimado KRIGAN,, muy gracioso el enlace buen chiste.

    No se debe confundir responder una pregunta, con mantener una conversación.

    Google vende una «cosa» que le llama «altavoces inteligentes» cuando en realidad son «micrófonos espías,» que bajo una supuesta «inteligencia artificial» que «»»»»responde preguntas»»»»», el micrófono esta activado frete a toda conversación que capte.Los altavoces inteligentes son un buen compañero de alcoba
    .

    • Krigan - 22 agosto 2018 - 11:40

      La terminología es la que es, a la fase en la cuál la red neuronal adquiere la capacidad de realizar una tarea se la llama entrenamiento, a esa adquisición se la llama apredizaje (machine learning, ¿te suena?), y a la fase de producción, en la cuál se usa esa capacidad adquirida, se la llama inferencia. Además de eso, a la red neuronal se la llama así, y a los nodos de esa red se les llama neuronas artificiales (o simplemente neuronas).

      A las capas de neuronas intermedias entre la capa de entrada y la de salida se las llama capas ocultas, a pesar de que son tan examinables antes, durante, o después de la ejecución como la de entrada y la de salida. Es solo un nombre.

      La ciencia está llena de nombres cuyo significado técnico no está relacionado con el significado en el lenguaje común de las palabras. Hay un quark llamado encanto, a la selección natural se la llama así pese a que nadie selecciona nada, bit en inglés significa pizca, y hardware significa quincalla. Por favor, no creas que los dragones de Comodo escupen fuego.

      Esto no tiene nada que ver con ningún lenguaje postmoderno, es simplemente la terminología de uso común en esta disciplina, la cuál es totalmente científica.

      En cuanto a ese único tipo de programación que tú conoces, contando con los programas adecuados, no es necesario escribir ni una sola línea de código para diseñar (se dice así) y entrenar (se dice así) una red neuronal (se dice así). A esto también se le considera un tipo de programación, pero es de naturaleza muy distinta a ese otro tipo que tú conoces (el de toda la vida).

      De verdad, pregúntate si sabes en qué consiste exactamente una red neuronal, qué sucede exactamente en la fase llamada entrenamiento, y qué sucede en la fase llamada inferencia. Si no es así, ya sabes, RTFB (Read The Fucking Book).

      • Krigan - 22 agosto 2018 - 11:43

        Errata: escribí apredizaje cuando quería decir aprendizaje.

  • #037
    Chema - 22 agosto 2018 - 10:24

    Estimado GORKI. Si conoces alguna tesis , doctorado, trabajo universitario realizado en España en C, que no verse sobre el sexo de los ángeles que supere la lectura de las PREMISAS, y de un nivel técnico serio, te agradecería pusieras el enlace.

    Se supone que la universidad Española crea ciencia y conocimiento, todavía estoy por leer un trabajo realizado en C de una universidad Española de un nivel técnico aceptable.

    • Gorki - 22 agosto 2018 - 13:40

      Mis conocimientos de informática son anteriores a que se inaugurara la Escuela de Informáticos, yo aprendí en IBM directamente, pero un lenguaje que ya no se utiliza en absoluto el APL, que utilizaba la IBM 5100 y IBM 5110, antecesores del PC de IBM.

      Era terriblemente potente, aunque muy abstracto y muy poco adecuado para trabajar en equipo. Posteriormente he aprendido RPG, Basic, Cobol y C. así como varios sistemas operativos, pero esto ya sin formación académica, sino con medios de autoaprendizaje y trabajando a la sombra de otros compañeros con más experiencia en el tema, en un proceso de formación continua, que era imprescindible en una área donde los cambios eran continuos.

      A parte y a medida que ascendí, aprendí Análisis Orgánico y Análisis Funcional y tengo suficientes nociones, pero no el dominio que me hubiera deseado tener, de Programación Estructurada, porque ya me cogió mayor, cuando mi trabajo era mas de jefatura de equipo y proximidad con el cliente/usuario y menos de tirar lineas de programación/análisis.

  • #039
    Chema - 22 agosto 2018 - 11:29

    Estimado KRIGAN. leido el ¿libro? que me recomendaste, y visto el código pertinente,digo que:

    Don Michael , autor del pamfleto sobre «inteligencia artificial», es un «tio cojonudo».
    Anda cojo de tenica y se hace nudo con las explicaciones.

    Don Michael define una estructura basica con tres entradas y una salida como «perceptrons»,

    «»»That’s the basic mathematical model. A way you can think about the perceptron is
    that it’s a device that makes decisions by weighing up evidence.»»»

    Leído y visto el código en GitHub, queda claro y visible la escasa o nula técnica de Don Michael, código de aficionado que por fuerza bruta usando FOR , moviendo millones de veces
    perceptrons y sumando valores cree que «hace algo» neunoral e inteligente.cuando en realidad responde a cuestiones prefijadas.

    De inteligencia NADA de NADA. El mismo resultado se puede obtener de manera más simple usando un tipo de B-TREE especifico.

    Don Michael es un corta y pega de otros ejemplos de aficionado sobre «inteligencia artificial.»

    El código sobre «inteligencia artificial » realmente serio no está disponible , ese código habrá costado millones y seguramente formará parte de sistemas roboticos industriales y armamentísticos.

    • Krigan - 22 agosto 2018 - 20:19

      No, Chema, lo que hace una red neuronal no se puede hacer con un B-tree. Si se pudiera, Google y cía usarían B-trees, y se ahorrarían la pasta gansa que se han gastado, primero comprando GPUs, y después incluso diseñando y fabricando chips especializados como las TPUs de Google, que ya van por la tercera generación, y cuya única finalidad es ejecutar redes neuronales.

  • #041
    Chema - 22 agosto 2018 - 12:54

    Estimado KRIGAN,

    El uso de conceptos vagos y oscuros es contraproducente.

    Yo no me siento a codificar sin antes tener presente lo que debo codificar, lo cual quiere decir que debo tener en mi mente las imágenes y sus conceptos asociados.

    Uso el llamado «pensamiento matemático» desde que tengo uso de razón,( al estilo Poincaré ,suena pedante pero es lo que uso), no empleo ni números ni signos ni LENGUAJE HABLADO ni matemático, ni NOMBRES DE USO COMÚN que definen estructuras en C , uso imágenes asociadas a conceptos basados en mi conocimiento técnico REAL

    .
    Es muy importante que los conceptos «contengan, nazcan» asociados a técnica REAL, a realidades que mis manos puedan codificar, ni una coma de fantasía está permitida,
    al contrario ,si se admite la imaginación, potente «herramienta» que me permite asociar conceptos muy rápidamente y encontrar debilidades en el diseño..

    Esta forma de diseñar y pensar es muy potente, requiere la total y absoluta negación de la fantasía, que por ser muy poderosa «soluciona cualquier cosa»,La fantasía todo lo arregla, todo lo puede.

    Los conceptos vagos y oscuros no permiten un pensamiento realista , no permiten diseñar, crear de forma precisa rápida y clara, te llenan la cabeza de fantasía asociada al concepto, te hacen creer ser poseedor de conocimientos reales cuando en realidad son psicologismos.

    Aquí dejo cualquier comentario en este hilo, no deseo parecer pesado ni pedante.

  • #042
    Pedro Torres Asdrubal - 22 agosto 2018 - 16:43

    Code Bullet, canal divulgativo de un matemático programador sobre machine learning.

    ¡Si os gusta decidlo!

Dejar un Comentario

Los comentarios están cerrados