El Blog de Enrique Dans

La SGAE, en la Wikipedia

Escrito a las 9:33 pm
1

Mientras escribía el post anterior, me pasé por la Wikipedia para vincular el término Google Bomb a su definición, algo que muchos hacemos habitualmente en nuestros artículos. Al ver la definición, observé que la página tenía muchos ejemplos de Google Bombs, pero que entre ellos no estaba el más conocido y exitoso de la blogosfera española: el de la vinculación del término “ladrones” con la homepage de la Sociedad General de Autores y Editores, SGAE. Así que, ni corto ni perezoso, procedí a editar la página de la Wikipedia, e introduje el ejemplo correspondiente. Así que ahí lo tenéis, en la definición de Google Bomb, de primerito, en la lista de “Accomplished Googlebombs“. Me ha quedado de lo más logrado, ¿no?

El futuro de los buscadores

Escrito a las 7:49 pm
3

Larguísimo, pero interesantísimo artículo en MIT Technology Review sobre el sector de los buscadores; básicamente revisando las posibles opciones estratégicas de Google, Microsoft y, en menor medida, Yahoo! y otros competidores. Disiento con muchos de sus puntos, pero me ha parecido una lectura interesantísima.

El artículo comienza con una premisa para mi errónea: que Google está hoy en una situación idéntica a la de Netscape en 1995. Para mí resulta una falacia total pensar que el éxito de Google hoy depende de Microsoft. Desde mi punto de vista, pero esto es pura opinión y no ciencia, en el hipotético caso de que Microsoft, en pleno ataque de inspiración, fuese capaz de producir un buscador que pudiese competir con Google, aún tendría muchas cosas que superar antes de aniquilar a Google como hizo en su momento con Netscape. Cosas que van desde los obstáculos legales que se encontraría si intentase apalancar su herramienta en el dominio del sistema operativo o las aplicaciones, hasta el papel de “malo” que ha logrado arrogarse en infinidad de usuarios que hoy intentan desesperados mirar hacia competidores alternativos que les proporciones mejores experiencias de uso que las que les proporciona Microsoft.

Pero lo interesante del artículo no es su comienzo, sino lo que apunta posteriormente: Según el autor, la clave en el mercado de los buscadores hoy viene del desarrollo de estándares. Comparando con otros mercados tecnológicos, el autor – fundador de la empresa que creó y vendió posteriormente FrontPage a Microsoft – afirma que los estándares son una necesidad en mercados tecnológicos dotados de elevada complejidad, y que se avecina una guerra por el control de esos estándares. De nuevo disiento: no veo que el desarrollo de estándares, APIs y afines juegue un papel tan fundamental en este mercado hoy en día. El autor afirma que ha sido el desarrollo de estándares como la arquitectura mainframe por IBM en 1964, el microprocesador de Intel en 1971, el primer sistema operativo de Microsoft en 1981 o el router de Cisco en 1986 la fuerza capaz de generar miles de millones de dólares en beneficios, y que antes del desarrollo de esos estándares, esos mercados eran poco significativos o inexistentes. Sin embargo, desde mi punto de vista, el desarrollo de estándares, si bien puede jugar un papel fundamental en mercados incipientes y complejos, no está aún listo para actuar en un mercado como el de los buscadores.

Imagen Y me explico: el mercado de los buscadores, desde mi punto de vista, no está en fase incipiente. Está, de hecho, en una fase muy anterior. Ni siquiera ha empezado a definirse. Revisemos su ya aparentemente larga historia: los primeros catálogos por intervención humana, los primeros bots capaces de seguir vínculos de manera autónoma, los primeros algoritmos que asignan pesos y relevancias… ¿dónde estamos realmente? La primera generación de buscadores, para mí, fracasó por la prostitución de sus resultados. Dejamos de utilizar Altavistas y Terras cuando vimos que lo que obteníamos en sus resultados era el mejor postor, y no lo más relevante. Nos fuimos a Google porque nos prometía reultados basados en la relevancia, no en la puja, al principio en su totalidad, ahora sólo en la mitad izquierda de la pantalla y pasada la primera línea. Ahora estamos en la fase de “in Godgle we trust“, como reza la portada de la revista, pero… ¿realmente hemos avanzado tanto? Google indexa hoy más de ocho mil millones de páginas (una pequeña fracción del total de la Web) pero… ¿tiene eso alguna importancia más allá de la puramente estadística? ¿Encontramos siempre en nuestro buscador lo que estábamos buscando? ¿Lo más relevante? Incluso para los verdaderamente diestros en el manejo del buscador, esos a los que miramos admirados por la alquimia que pueden obrar en la página, el resultado verdaderamente relevante se muestra a veces elusivo, esquivo, difícil de localizar.

Y, lo que para mí resulta peor aún… Impersonal. Imaginemos dos personas idénticamente adiestradas en el manejo de un buscador: uno es un neurocirujano, el otro un futbolista. A la hora de buscar un término como, por ejemplo, “lesiones cerebrales”, los intereses de ambos resultan enormemente dispares en profundidad, en las fuentes sobre las que buscar, en la orientación y los términos asociados… Sin embargo, ambos llegarían, posiblemente, a páginas muy parecidas. El para mí mejor de los buscadores, Google, sigue siendo el pálido y triste reflejo de lo que un secretario bien instruído y que me conociese a la perfección podría hacer por mí en términos de acceso a la información. Nos hemos acostumbrado a ello, lo aceptamos y, en gran medida por comparación con lo anterior, hasta nos parece galáctico. Pero es un asquito. No tiene nada que ver con la maravillosa complejidad y eficiencia de la mente humana. Con todo su PageRank, el buscador de Google no es más que un robot tonto, muy tonto, tontísimo. Tan tonto que se le puede engañar con estrategias como el Google Bombing, que un niño de siete años podría diseñar. Y ojo, estamos hablando del mejor y más refinado de los buscadores y de una empresa que goza de mi más confesada admiración y respeto.

Proceder al desarrollo de estándares hoy en día, como pide el autor, sería como haber intentado desarrollar estándares para amortiguadores cuando se inventó la rueda. En la carrera hacia conseguir una herramienta de búsqueda razonablemente buena, nos hallamos en la Prehistoria.

Y en esa Prehistoria, la tribu más desarrollada es, sin duda, Google. El que marca la tendencia, el que desarrolla primero, el modelo a seguir. El que, en una herramienta de menos de un Mb. de tamaño, ha sido capaz de superar amplísimamente el simpático perrito de Microsoft que movía mucho la colita, pero tardaba siglos y, además, proporcionaba unos resultados de calidad lamentable. Al desarrollar Google Desktop Search, Google ha desarrollado una tecnología, la del servidor Web local que almacena nuestros ficheros de índices, que puede ser clave en el futuro de la búsqueda: un servidor Web local, basado en los documentos almacenados en nuestro disco duro, que nos define, nos caracteriza, resume muchos de nuestros intereses y temas en que trabajamos, a lo que nos dedicamos. En su momento, Larry y Sergey tuvieron la intuición de adaptar una metodología científica, las “citations“, al mundo de las búsquedas: lo más citado, lo más enlazado, es lo más relevante. Ahora, su intuición mágica puede darles otra clave: lo que un usuario tiene en su disco duro define sus intereses. Una búsqueda en los miles de millones de páginas de Google moderada por los resultados de mi perfil en mi índice local podría darme, o al menos aproximarse, a los resultados que realmente estaba buscando, distintos a los de otro usuario con un disco duro lleno de documentos sobre Neurología. Y ya puestos, ¿por qué un índice local si cada vez usamos más ordenadores y dispositivos de todo tipo? Almacenemos nuestros índices en los ordenadores, en la grid de Google, y usemos los resultados para nuestras búsquedas en la Web. Incluso los contenidos de nuestros mensajes en Gmail pueden ayudarnos a la hora de definir nuestros intereses de cara a encontrar la estrategia de búsqueda más adecuada, que nos ofrezca los resultados que realmente nos interesaban. Nos maravillan las recomendaciones de Amazon porque nos conocen mejor que nosotros mismos… los buscadores del futuro nos conocerán mejor que lo que nosotros mismos nos conocemos, y esa imagen coincidirá o no con la que nosotros tenemos de nosotros mismos. Pero nos darán los resultados que buscábamos. Y en ese momento, posiblemente, podremos pensar en el desarrollo de estándares. Mientras tanto, larga vida a Larry y a Sergey, y que el coco les dé para seguir haciendo maravillas.

UMTS: La ceguera intencionada

Escrito a las 9:47 am
1

Este artículo, “UMTS: la ceguera intencionada” salió en su momento, allá por el 11 de Noviembre, en la edición especial para el SIMO TCI 2004 de Expansión. Como únicamente se distribuyó en la recinto ferial durante esos días, me imagino que la difusión del artículo habrá sido más bien escasa. Así que, como acaba de caer en mis manos de nuevo (de hecho no lo había llegado a ver en versión maquetada), lo vinculo para quien le interese el tema.

UPDATE: Corregido el vínculo del artículo, ya vuelve a estar disponible (perdón…)

El futuro de la industria del PC

Escrito a las 9:28 am
0

Muy interesante esta reflexión en las páginas de Fortune sobre el futuro de la industria del PC, al hilo de la salida de IBM. Según el autor, la industria del PC evoluciona hacia muchas cosas que no son el PC, sino dispositivos de otros tipo, algunos de los cuales ni siquiera conocemos todavía. Un fragmento interesante, el párrafo final:

IBM, for all its many talents, was not the kind of company to take us there. Now a new giant joins Dell and HP. Lenovo, born in China but headquartered in New York, is likely to push those relentlessly innovative companies to move even faster toward products we don’t yet know we need.

Trata mejor a IBM de lo que yo lo hice en mi reciente columna de Expansión, pero está muy de acuerdo en el fondo. IBM no podía o no sabía llegar más allá de lo que lo hizo.

Los titulares que NO veremos en el 2005

Escrito a las 1:48 pm
2

Veo, vía Slashdot, en Silicon.com, los titulares que NO veremos durante el 2005. Muy divertido y muy interesante: el primero, que Microsoft saca su Longhorn a tiempo y sin bugs :-) Pero también está el de que los mercados se vuelven locos por las salidas a bolsa de las empresas tecnológicas, o el que el spam vuelve a representar menos del 50% del total de correo electrónico distribuido, o el que una empresa india abre un centro de offshoring en UK… unas cuantas tendencias que algunos en algún momento llegaron a imaginarse, analizadas en clave de humor. Lectura muy recomendable.

Modelos de difusión en redes sociales

Escrito a las 1:05 pm
0

Llevo un tiempo dándole vueltas a los modelos de difusión en redes sociales, algo que lógicamente afecta a su modelo de negocio, y es curioso hasta que punto estos aspectos están condicionados por el enfoque de la red: comparemos, por ejemplo, dos modelos de red social: Match.com versus eConozco, y enfoquémonos en las diferencias. Sé que estoy comparando peras con manzanas, pero en cualquier caso, creo que el ejercicio mental puede valer la pena:

  • ¿Cómo funciona la mecánica de difusión? En eConozco, la llegada de una persona con una gran red, hace que de forma subsiguiente a la misma ocurra una llegada adicional de muchas personas, que esa persona atrae a eConozco en función de ese parámetro que, utilizando un horrible símil, podríamos llamar “infectividad”. La difusión sigue, por tanto, una scale-free distribution perfectamente típica.
  • En Match.com, en cambio, la difusión es aditiva, uno a uno. Es decir, una persona se da de alta, pero en general no tiene efetos colaterales sobre otras personas, es más, tiende incluso a veces a mantenerse en secreto. Supongo que si Claudia Schiffer decide darse de alta en Match y además lo anuncia, ocurriría algo parecido, pero no creo que algo así pase muy a menudo :-) Por supuesto, influirán las campañas, las menciones, etc. pero de una manera muy parecida a la de cualquier otro producto, no a la de una red social.
  • Un alta en eConozco puede ser más o menos activa, mantener actualizado su perfil o no, responder a peticiones de reenvío o no, atraer a más miembros o no, pero en general, imagino que muy poca gente se dará de baja. En Match, en cambio, muchas personas, obtenida una relación satisfactoria, se darán de baja. Otro, tal vez en búsqueda de relaciones más casuales, no lo harán. Aquí influye, por supuesto, el hecho de que una sea un servicio gratuito mientras que otro sea de pago.
  • Introduciendo otro elemento en la comparación, ¿que habrá ocurrido el día que en Plaxo, otro modelo si queremos “parecido o asimilable a una red social”, Joi Ito anunció que se daba de baja? En este caso, en un modelo que debe tener habitualmente una incidencia escasa de bajas, es posible que se haya dado un cierto aluvión de las mismas (yo al menos conozco a tres personas que al ver a Joi, me comentaron que se habían dado de baja, y hasta yo mismo me lo planteé)
  • Planteémonos una inversión equivalente en publicidad: mientras para Match, la eficiencia supone alcanzar a un número elevado de “corazones solitarios” que se apunten al sistema, para eConozco, la eficiencia supone encontrar a un número elevado de “mavens“, “connectors” o “salesmen“, siguiendo a Gladwell en su “Tipping Point, cada uno de esos papeles con sus seguramente diferentes “rentabilidades” atribuíbles.

Interesante, ¿no? Seguiremos dándole vueltas…

La importancia de La Bruixa

Escrito a las 8:10 pm
0

Imagen El hecho de que La Bruixa d’Or se haya convertido por segundo año consecutivo en la administración que reparte el Gordo de Navidad tiene mucha más importancia que lo meramente anecdótico. Interesante comentario de Pablo al respecto, o este otro, también en Abundando, en el que además me preguntaba si había caso desarrollado sobre La Bruixa (que yo sepa, no). A mí, como a Pablo, también me ha encantado ver como el azaroso evento ha hecho que se mencione Internet en todas partes, se hagan conjeturas sobre la estadística y las leyes de la probabilidad, y el gran público se dé cuenta de que “en eso de Internet” hay algo más que lo que habitualmente sale en las noticias. Que este año se nos termine con la suerte de La Bruixa no me parece un mal presagio para el año que viene…

Lo que nos deja el 2004, en Cinco Días

Escrito a las 8:03 pm
0

El resultado de una ronda de conversaciones de Marimar Jiménez con una serie de profesores del área de SI/TI del Instituto de Empresa, convertido en artículo y publicado hoy: “Las innovaciones de 2004 que dejarán huella“.

La pastilla roja, en una clase del Instituto de Empresa

Escrito a las 10:49 am
19

Imagen En el curso que estoy dando al MBA-S1 en el Instituto llegamos ayer a la sesión dedicada a los sistemas operativos, panorama del software y sistemas operativos. Es una sesión que siempre ha estado incluida en el programa, pero este año introduje la novedad de llegar a clase, poner un LiveCD de Ubuntu que mi amigo Javier Candeira había tenido el detalle de regalarme, y dar la clase entera sobre un entorno Linux. Dada la configuración de seguridad de los ordenadores de las aulas, tuve que alterar la secuencia de arranque para hacer que arrancase desde el CD-ROM, pero una vez hecho eso, el objetivo era demostrar que se podía tomar un ordenador, arrancarlo en un sistema operativo diferente, y utilizar todo su contenido y archivos sin ningún problema con programas diferentes a aquellos en los que habían sido creados. Al entrar, arrancamos Firefox, y pudimos navegar sin problemas de ningún tipo, a pesar de estar dentro de una red corporativa con sus configuraciones de proxies, firewalls, etc. Probamos el AIM, y en un momentito teníamos en pantalla mi cuenta de mensajería instantánea en Hotmail, y la evidencia de que podríamos configurar otras en su misma ventana de una forma comodísima. Entramos en OpenOffice, escribimos unos textos, abrimos un ppt, comprobamos como la presentación funcionaba perfectamente, etc., etc.

El objetivo no era hacer que nadie se pase a nada, sino comprobar que existen alternativas. Yo mismo aún no me he pasado a Linux, aún no me he tragado la pastilla roja (fantástico libro, por cierto) Estoy, por así decirlo, “en fase de pruebas”, y mi mensaje viene a ser que tomes la decisión que tomes, debes hacerlo de manera ultra-pragmática, basándote en costes de propiedad, en consideraciones de seguridad, en panorámicas de futuro, en el expertise existente en tu empresa, etc. No creo que deba verse como una cuestión cuasireligiosa o de creencias, sino de prestaciones, estabilidad, seguridad, etc.

Creo que la clase salió bien, al menos muy divertida y con mucha participación, y que el hecho de ser impartida por alguien que inició la sesión confesando no ser para nada un experto en Linux le dio un punto de espontaneidad y de “¿como se hará eso?… hmmm… mira, aquí está” que no vino nada mal para demostrar que el tema funciona, funciona bien y de manera enormemente intuitiva para casi todas las tareas habituales. Mis alumnos estarán ahora todos de vacaciones y seguramente intentarán ni acercarse a un ordenador hasta que se aproximen las fechas de volver a clase, pero si andáis alguno por ahí, no estaría de más tener algún testimonio directo, con nombre o sin él…

La quinta columna en Libertad Digital

Escrito a las 10:47 pm
10

Esta vez se titula “Síndrome de Estocolmo“, y desarrolla un tema que se inició aquí mismo, a partir de aquellos comentarios de Ricardo, Agustín y Carlos. Tranquilo, internauta, no eres tú el que tiene que proponer ningún modelo alternativo, a no ser que alguien te pague por ello. Si te sientes raro cuando te bajas contenidos de la red, no te preocupes, ya se te pasará. Se trata, simplemente, de una variación del síndrome de Estocolmo.

Logotipo de Blogestudio Logotipo de Acens