El Blog de Enrique Dans

Economistas que hacen mal su trabajo

Escrito a las 10:34 pm
1

IMAGE: Kheng Guan Toh - 123RFUn gran artículo de Joel Mokyr, What today’s economic gloomsayers are missing, y una fantástica interpretación de Mike Masnick, Economists don’t understand the information age, so their claims about today’s economy are a joke, cuya tesis central es que los economistas convencionales están completamente perdidos cuando se trata de calcular el valor generado por la economía de la información.

La tesis me recuerda poderosamente las apreciaciones de Erik Brynjolfsson sobre la paradoja de la productividad, aquella teoría de Robert Solow que afirmaba, no en un artículo académico, sino en la crítica de un libro en el New York Times, que “veía ordenadores en todas partes, excepto en las estadísticas de productividad”.

Obviamente, la tecnología generaba enormes ganancias en productividad, y el problema era que el pobre Robert Solow, simplemente, no las podía medir con los métodos convencionales: por un lado, aparecían ganancias en fuentes no tradicionales de generación de valor como incrementos de calidad, de servicio al cliente, mejoras en flexibilidad productiva, etc. que las métricas tradicionales no eran capaces de medir. Por otro, se producía una redistribución de la riqueza que, al ser tomada en agregado, compensaba ganadores con perdedores y ocultaba los efectos. En tercer lugar, existían desfases temporales derivados del proceso de adopción tecnológica y de los factores necesarios para aprovechar esa tecnología, como el aprendizaje. Y en cuarto, problemas derivados de la gestión de la tecnología, que al ser llevada a cabo por directivos no entrenados o que incluso tenían prevenciones ante su incorporación, no permitían ponerla en valor.

La paradoja de la productividad fue, en realidad, un proceso que se curó con el tiempo: hoy sería imposible explicarnos la economía sin el aporte de las tecnologías de información. Sin embargo, como bien apunta el artículo de Mokyr, muchos economistas siguen haciendo mal su trabajo cuando no son capaces de entender la economía de la información. ¿Qué factores “se pierden” esos economistas?

Por un lado, un problema de medida: el uso de una métrica deficiente como el producto interior bruto, incapaz de recoger el valor generado por productos que son gratuitos para el usuario, y que en las estadísticas de productividad aparecen como aparentemente “carentes de valor”. Muchas de las ganancias generadas por la economía de la información son simplemente ignoradas por el PIB, no aparecen en ningún sitio, y nos llevan a comparaciones y apreciaciones sobre el crecimiento o decrecimiento de la economía que, sencillamente, no tienen ningún sentido. Por otro lado, el hecho de que la tecnología tienda a producir progresivamente cosas que son a la vez mejores y más baratas: un ordenador el doble de potente por la mitad de precio aparece en las estadísticas como un valor económico de sencillamente la mitad, no como cuatro veces más – que es el valor que realmente aporta.

El ejemplo utilizado por Mokyr resulta especialmente ilustrativo: si los avances en tecnologías que permiten el teletrabajo o los coches sin conductor fuesen capaces de reducir el tiempo que los ciudadanos de un país emplean en los desplazamientos a la mitad, ese factor no aparecería más que indirectamente en las estadísticas de productividad y en el PIB, aunque estaría contribuyendo enormemente a la economía, a la felicidad y a la productividad de todos esos ciudadanos, lo que convierte a la tecnología no en nuestro enemigo, sino en nuestra mayor esperanza.

Mientras los economistas no se apliquen a entender los elementos diferenciales de la economía de la información y las facetas en las que tiene lugar su aporte de valor, estarán, sencillamente, haciendo mal su trabajo, midiendo mal, y muy posiblemente, dando argumentos a una toma de decisiones inadecuada.

Sobre mi gestión de contenidos

Escrito a las 11:54 am
18

IMAGE: Elena Suslova - 123RFUn comentario en una entrada reciente me preguntaba sobre los sistemas que utilizo para la gestión del contenido que genero. Un mínimo de una entrada al día durante más de once años, unida a artículos y columnas habituales en prensa, más referencias, citas, entrevistas, etc. suponen, efectivamente, mucho contenido en el que poner orden, un problema que se acentúa además con la necesidad de poder recuperar dicho contenido no solo para poder construir sobre él (saber qué dije sobre un tema en un momento determinado), sino también para ser capaz de utilizar ese contenido de manera mínimamente eficiente en mi ocupación principal, las clases y conferencias.

La base de la gestión del contenido que genero es la propia página. Utilizo esta página no solo para publicar mi contenido, sino también como repositorio ordenado de información. La práctica totalidad del contenido que genero, sea para su publicación en la propia página o para periódicos, revistas, libros, etc. es referenciada en una entrada aquí. Eso incluye artículos, referencias, entrevistas escritas, etc. y, en menor medida, entrevistas y apariciones en radio o en televisión. La idea no solo es darle una posible difusión adicional, sino fundamentalmente, ser capaz de encontrarlo cuando lo necesito. De hecho, la gestión del contenido propio sigue siendo una de las principales razones por las que suelo recomendar a mis alumnos tener una página personal.

Para ello, me apoyo en los tres sistemas de gestión de contenidos que me proporciona WordPress: la búsqueda por tags o etiquetas, la búsqueda cronológica, y la búsqueda por texto libre. Cuando quiero localizar un contenido determinado en mi página, el primer lugar al que suelo acudir es la página de Temas. Se alimenta de la clasificación que hago del contenido cada vez que termino una entrada, y aunque contiene numerosos errores (inconsistencias en el etiquetado, la mayoría de las cuales provienen de sistemas anteriores que obligaban a separar palabras con guiones, etc. y cuya revisión tengo pendiente desde hace años), responde bastante bien para la mayor parte de las búsquedas. Es un sistema de palabras clave, en inglés (independientemente de que el contenido original esté escrito en español o en inglés, yo clasifico siempre con etiquetas en inglés), en la que incluyo siempre los nombres de las personas y empresas mencionadas en el contenido, la temática en varios niveles de concreción, y algunos términos relacionados que me permitan vincularlo con líneas habituales de investigación. Típicamente, entre cinco y diez etiquetas por entrada.

La página de etiquetas ofrece una panorámica bastante razonable de mis intereses, y un sistema bastante eficiente de recuperación de contenidos. Haciendo clic sobre una etiqueta, apareces en la página correspondiente que recoge todas las entradas de esa categoría; si pasas el ratón por encima de una etiqueta, puedes ver el número aproximado de entradas en las que aparece: destacan empresas como Google (500 entradas), Microsoft (327), Apple (243), Twitter (204) o Facebook (192), pero también aparece, lógicamente, mi propia empresa, IE Business School (un total de 173 ocasiones repartidas entre las etiquetas “IE Business School”, “Instituto de Empresa” o “institutodeempresa”), medios como Expansión en los que llevo años escribiendo habitualmente (222 menciones) o en los que escribí o escribo ocasionalmente (El País, 78 menciones; Cinco Días, 72; Libertad Digital, 69; El Mundo, 53; Público, 34; o ABC, 26; entre muchos otros), o genéricos como “entrevista” (incorrectamente separado entre “interview”, con 81 menciones, e “interviews”, con 106). Por temáticas, las etiquetas más destacadas pueden ser cosas como la meta-etiqueta blogging (285 menciones), music (243), politics (279), copyright (271), intellectual property (250), advertising (200), social networks (200), P2P (134), Network Neutrality (96), newspapers (86), innovation (77), o marketing (70).

Además del sistema de etiquetado, utilizo también el archivo cronológico cuando tengo clara la ubicación temporal de una entrada, y para algunos temas puntuales, la búsqueda en texto libre. No tengo reglas de ningún tipo para titular mis entradas, prefiero poner el título que me apetece o me resulta sugerente en un momento dado a tener que aceptar la dictadura de la descriptiva o del SEO, lo que lleva a que, en muchas ocasiones, si recuerdo un título determinado, termine antes buscándolo ahí, o incluso en Google con el parámetro site:enriquedans.com.

Desde hace años, trato de incluir algún tipo de copia de respaldo para los contenidos que publico en otros sitios. En la mayor parte de los casos, se trata de un simple fichero pdf almacenado en mi propio servidor que me permita seguir accediendo al contenido aunque este desaparezca del lugar original donde fue publicado. Ya son bastantes experiencias de publicaciones supuestamente serias que han ido cambiando de criterio en cuanto al mantenimiento de sus archivos, o que simplemente han desaparecido. Los artículos y citas anteriores al blog o de su primera época, los aparecidos entre 1996 y mediados de 2005, los tengo recogidos en esta otra página. Los artículos académicos, en Academia.eduGoogle Scholar o en mi curriculum académico.

Finalmente, y como sistema de respaldo al que rara vez necesito recurrir, mantengo copia en disco duro y en backup de los artículos en versión no maquetada (tal y como los envié originalmente), en pdf, y de las ilustraciones que utilizo en las entradas del blog (vienen fantásticamente bien para clases y conferencias).

En el fondo, un sistema de gestión de contenidos que dista mucho de ser perfecto, pero que sirve perfectamente para su principal usuario, que asumo que tiendo a ser yo mismo (sea porque trato de ser rentable conmigo mismo y reutilizar mi esfuerzo de creación todo lo que puedo, o porque tengo mis dudas de que las cosas que escribo interesen a alguien más que a mí mismo :-) Empecé cuando IE Business School comenzó a solicitar a sus profesores una memoria anual de producción académica, con el razonamiento de “cuando me lo pidan, les contestaré que está todo ahí, en el blog”, algo que nunca funcionó, y siguió como forma de procurarme un sistema de archivo personal, que según veo, parece algo más metódico y consistente que los que suelen utilizar otros autores. Si además resulta útil a alguien… mejor todavía.

La vida con burbujas

Escrito a las 1:47 pm
16

IMAGE: Ilya Akinshin - 123RFDos artículos no relacionados en mi lista diaria de lectura, pero muy interesantes para ser leídos juntos: The logic of crazy valuations, en Techcrunch, y Do high valuations for Uber, Snapchat and BuzzFeed herald a new tech bubble?, en The Guardian.

Realmente, para alguien que haya estado siguiendo la escena tecnológica a lo largo de las últimas décadas, la sensación es que las burbujas son algo que forman parte del paisaje habitual, un componente del paisaje, una variable permanente del entorno. En tecnología, el camarero no te pregunta si quieres tu agua con gas o sin gas: simplemente no te deja elección, y te la trae siempre con burbujas.

La inversión en tecnología está infinitamente más expuesta al desarrollo de burbujas especulativas que otras industrias o sectores. Hablamos de decisiones enormemente complejas, en las que se mezcla un fortísimo componente de apreciaciones personales, con una gestión de expectativas que no resiste casi ningún análisis racional de escenarios, con un contexto que es susceptible de moverse a gran velocidad, con dinámicas de adopción muy poco científicas y sujetas a factores casi aleatorios, y con procedimientos de salida igualmente difíciles de anticipar.

Los factores personales son ya de por sí un mundo. He conocido analistas e inversores tecnológicos con clarísimas tendencias a ser abogados del diablo, que se lanzan como auténticos perros de presa sobre toda idea que les pasa por delante para intentar destrozarla, reducirla al ridículo, encontrarle las cien carencias y los mil problemas insolubles que según ellos la invalidan completamente. También he conocido el otro lado, los muy constructivos, los que se emocionan con todas las ideas y se integran en ellas por una mezcla de entusiasmo y codicia, los que parecen tener soluciones para todo independientemente de las carencias, y los que invariablemente piensan que de alguna manera casi mágica, algo aparecerá que solucionará problemas para los que prácticamente nadie ve solución.

Obviamente, cualquiera de los dos extremos son igualmente malos, y el que el analista o el inversor adopte un punto u otro en la escala entre la frialdad absoluta del “ya te llamaremos” y el entusiasmo que lleva al “¿dónde hay que firmar?” depende por lo general de los sesgos personales implicados: experiencia previa con ideas similares, con equipos con perfil afín o con historias contadas de peor o mejor manera. En los componentes personales del análisis, la idea de obtener inversiones con una rentabilidad adecuada o incurrir en pérdidas responde, en muchos casos, a factores que tienen más que ver con la suerte, con la capacidad de aportar cosas buenas a un equipo, o con las dinámicas de todo tipo que surgen en él.

La mecánica de la inversión en empresas tecnológicas sigue una mecánica similar a la de otras industrias, pero sometida a una dinámica mucho más líquida y veloz. El balance entre el riesgo y la rentabilidad sigue teniendo mucho que ver con el tiempo: entrar como inversor en un proyecto en su fase de capital semilla puede ser enormemente rentable, pero conlleva, en contrapartida, un riesgo muy superior. A partir de ahí, las sucesivas rondas de financiación van equilibrando estos factores: a medida que la idea se va convirtiendo en más sólida o más visible, conseguir la entrada en esas rondas responde cada vez más a los factores tradicionales, a la dinámica habitual de las relaciones financieras, de los bancos de inversión, etc. hasta que se llega a un momento, que puede corresponder a una adquisición o a una salida a bolsa. En el primer caso, alguien paga toda la factura más un cierto premium, permite la salida de todos aquellos inversores que lo desean, y plantea nuevas reglas de cara al futuro. En el segundo, muchos que no pudieron invertir hasta ese momento pagan la factura, permiten la salida de quienes lo deseen, y pasan a la dinámica habitual de los mercados financieros.

A lo largo de todo ese embudo, actúan fuerzas de todo tipo. El panorama no permanece en absoluto estable: las tendencias y las preferencias de los usuarios cambian, la adopción se ve condicionada por nuevos desarrollos, por productos y servicios sustitutivos, por adquisiciones e inversiones de competidores potenciales, o simplemente por modas y dinámicas puramente veleidosas. Que una idea termine realmente siendo una buena inversión o un producto consolidado depende de muchísimos factores, y curiosamente, vemos cada día más como la noción tradicional de descuento de flujos de caja en el tiempo, por mucho que la ponderemos con los indicadores adecuados de riesgo, tiene menos que decir. Los “financieros de toda la vida”, los magos de la hoja de cálculo, del DCF, de los multiplicadores o de las betas, se encuentran cada vez más fuera de los análisis que definen las tendencias del mercado, que pasan a ver como directamente absurdo, como algo irracional, como una locura. Cualquier análisis financiero de las recientes inversiones en empresas como Snapchat, Uber o Buzzfeed resulta tan imposible de entender para el financiero habitual como lo fueron en su momento los de empresas hoy convertidas en auténticos referentes del mercado que hace ya mucho que ya han probado su valor. Algunas probarán su valor en el siguiente paso del embudo, otras fallarán miserablemente, y seguiremos opinando sobre ello en función de nuestra percepción de los factores implicados. ¿Hay verdades absolutas que conviertan esas inversiones en universalmente ruinosas o en alucinantemente exitosas? No lo parece.

En un contexto como este, las burbujas tienen que ser ya consideradas como una parte consustancial del ecosistema, como una parte del paisaje. ¿Quiere decir que periódicamente veremos explotar alguna de ellas? Además de la ya habitual perspectiva de las burbujas financieras como una parte natural de la economía, una especie de “purga” o “marea roja” del sistema económico, tenemos que asumir que ningún capitalista de riesgo, ni siquiera los mejores o los más avezados, tiene un método que le permita calcular si la inversión que está realizando va a proporcionarle la rentabilidad que espera o no, y que, en ausencia de esa metodología, se guía por factores que oscilan entre la existencia de una oportunidad (el acceso al proyecto), la capacidad de aportarle sinergias que la lleven a una siguiente etapa en su generación de valor, el análisis de los posibles escenarios de futuro, la percepción del equipo fundacional, y otras cuestiones que rayan directamente en lo cabalístico. De esos factores, tan solo algunos pueden ser “industrializados”: a medida que un inversor crece y gana prestigio, su nivel de acceso y su capacidad de proporcionar recursos únicos a una empresa lo hacen también. El resto, son cuestión de suerte, de sensibilidad personal, de experiencia y de valoración en función de factores que resultaría imposible capturar en un análisis en una hoja de cálculo. Sencillamente, algunas veces acertará, logrará un exit impresionante y verá su prestigio incrementado, y otras veces se la pegará, verá como la idea y el equipo fracasan, y habrá perdido dinero. Y mientras sepa navegar ese difícil equilibrio con las decisiones adecuadas, seguirá formando parte del ecosistema, contribuyendo a financiar proyectos, y redistribuyendo recursos.

Mientras no llegue alguien y sea capaz de sistematizar el proceso por el cual algunas ideas generan valor por encima de las expectativas racionales – y francamente, creo que estamos muy lejos de que eso sea posible, si es que lo es algún día – las burbujas seguirán formando parte del panorama habitual de la tecnología. Muchos ya ni recuerdan una vida en la que esas burbujas no estuviesen allí, no fuesen una parte habitual del panorama. Al igual que ocurre en la vida real, las burbujas nunca serán para todos los públicos: la gran mayoría de los consumidores prefieren su agua sin ellas. Pero para quienes gusten de ellas, el camarero llegará, y pidamos lo que pidamos para beber ese día, nos lo servirá con burbujas. Y que sea por mucho tiempo.

 

This article is also available in English in my Medium page, “Bubbles: get used to them

Telecomunicaciones y liberalismo

Escrito a las 10:33 am
23

IMAGE: Mipan - 123RFUn artículo en The Guardian, Mobile phone companies have failed – it’s time to nationalize them viene a retomar para el caso del Reino Unido la postura que yo defendía en Expansión en el año 2010, cuando Australia propuso la construcción de su National Broadband Network como iniciativa gubernamental: que las redes de telecomunicaciones constituían un monopolio natural, y que la opción verdaderamente liberal que realmente servía mejor los intereses de los usuarios no era su gestión entre operadores en libre competencia, sino su gestión pública. Una postura que, en realidad, llevo barajando desde el año 2005.

La importancia de las redes de telecomunicaciones en la competitividad de un país es enorme: una red de telecomunicaciones bien desarrollada es fundamental a la hora de definir factores que van desde la igualdad de oportunidades hasta el nivel de desarrollo de iniciativas innovadoras y emprendedoras, con todo lo que ello conlleva. Y si bien la gestión pública ha sido pocas veces la más eficiente, parece claro que la gestión privada en régimen de competencia abierta lo ha sido, en este caso, menos aún, generando un escenario en el que los incentivos a la inversión son cada vez menores: el papel del regulador, claramente, se ha convertido en una misión imposible: si no impone control al incumbente, éste anula toda posibilidad racional de competencia. Si lo hace, disminuye los incentivos de éste para la inversión. Mientras, la propia inversión en infraestructuras se muestra enormemente ineficiente por las duplicidades o multiplicidades en las que se incurre, y la imposición de una garantía de universalidad se convierte en una rémora de notable complejidad.

Pero además, la gestión privada amenaza una de las características fundamentales que definen a las redes tal y como las conocemos: su neutralidad. La neutralidad de la red se está convirtiendo en la auténtica prueba del nueve en lo que a gestión de las infraestructuras se refiere: si las compañías de telecomunicaciones reclaman que no son capaces de gestionar de manera rentable sus redes si mantienen su carácter neutral, es la evidencia clara de que no son quienes deben gestionarlas, y de que es el momento de cambiar de modelo. El análisis de los muchísimos comentarios recibidos por la FCC norteamericana tras el intento del ex-lobbista de la industria Tom Wheeler de cambiar la interpretación con respecto a la neutralidad de la red es más que claro: no existe una postura real de defensa de la no-neutralidad más allá de la caverna de las propias empresas de telecomunicaciones.

La otra prueba es el hecho de que las compañías de telecomunicaciones comanden las listas de quejas e insatisfacción de sus clientes en todos los países del mundo, prueba de que la gestión privatizada no ha sido capaz de dar lugar a una gestión verdaderamente eficiente. Salvo excepciones, las empresas de telecomunicaciones están muy lejos de ser un paradigma de modernidad y de vanguardia en la interpretación de la relación con el cliente.

¿Precauciones? La idea de unas infraestructuras de telecomunicaciones en manos públicas evocan todo tipo de temores sobre el control de las mismas, o peor, de lo que fluye por ellas. De hecho, el que Australia sea el país que encabeza este tipo de evolución hacia la re-nacionalización no deja de ser preocupante: hablamos de uno de los países que, en la órbita occidental, han sido pioneros en el desarrollo de filtros de contenido “para proteger a sus ciudadanos”, filtros que se han demostrado no solo completamente ineficientes, sino además, en muchos casos, arbitrarios y absurdos. El mayor peligro de una infraestructura de telecomunicaciones nacionalizada es precisamente ese: su posible uso como vehículo de censura y de adoctrinamiento. El mayor reto de un modelo nacionalizado sería, sin duda, defender la neutralidad de la red en ese mismo contexto, evitar la posible tentación del gobierno de turno de meter la mano en los contenidos que fluyen por las redes. Una tarea que, sin duda, tendría que estar sujeta a los correspondientes balances y contrabalances imprescindibles en estos casos, y cuyo buen funcionamiento es fundamental defender, una defensa que, por otro lado, podría seguramente aspirar a ser desarrollada de manera más eficiente en un ámbito pan-europeo.

¿Solucionaría algo poner las infraestructuras de telecomunicaciones y su desarrollo bajo la gestión de un organismo público que diese lugar a una infraestructura global, neutral y abierta a operadores que no poseen control sobre las mismas? De entrada, podría dar lugar a un modelo de competencia menos sesgado, en el que los factores que realmente llevan a la industria a avanzar estuviesen sometidos a una dinámica de competencia real, no mediatizada. Podría, por otro lado, asegurar que las reglas básicas de esa comunicación no se condicionan a intereses empresariales, sino al bien común. Además, se eliminarían ineficiencias y se garantizaría una universalidad en la prestación del servicio que hoy parece complejo obtener bajo intereses privados. Y obviamente, no todo sería bonito, pero los problemas potenciales parecen razonablemente evitables bajo una óptica de control adecuado.

La evolución en el tiempo del modelo de gestión de infraestructuras de telecomunicaciones nos está llevando a una clara paradoja: no siempre la opción más liberal es la que inicialmente parecía más liberal.

 

This article is also available in English in my Medium page, “Telecom infrastructure: why the private sector isn’t always the most liberal option

Sensorización y machine learning

Escrito a las 12:01 pm
7

SMS Audio BioSport In-Ear headphonesLas noticias del día dejan lugar a pocas dudas: nos dirigimos hacia un futuro en el que viviremos completamente rodeados de sensores de todo tipo. Los auriculares de la foto son el último desarrollo de SMS Audio, la empresa creada por el rapero 50 Cent, basados en tecnología de Intel, y pensados para monitorizar variables fisiológicas asociadas al ejercicio físico, un encaje que podría parecer bastante más natural para la práctica del deporte que llevar puesta una pulsera, una banda en el pecho o un reloj en la muñeca.

Pero los auriculares son solo una pequeñísima pieza en un rompecabezas enorme que está detrás de muchos de los recientes desarrollos y movimientos en el sector de la tecnología: ayer también se anunció la adquisición de SmartThings por parte de Samsung, doscientos millones de dólares que posicionan al gigante coreano en el mundo del home automation (iluminación, humedad, cerraduras… de todo) y que convierten en millonarios a los fundadores de una compañía iniciada en Kickstarter. Claramente, la tendencia es hacia que sensoricemos nuestros cuerpos, nuestro entorno, nuestros hogares y nuestros automóviles, aunque ello nos lleve a no tener nada claro de quién va a ser la responsabilidad cuando la información recogida por esos sensores desencadene una mala decisión.

Relojes inteligentes, brazaletes para la monitorización de personas mayores, nuevos desarrollos en baterías pensadas específicamente para ese tipo de dispositivos… y una auténtica riada de datos producidos cada vez que nos movemos, hacemos ejercicio, o simplemente respiramos. Datos de todo tipo, con posibilidades de utilización muy imaginativas o muy peligrosas, que van a determinar nuevas reglas de negocio que están poniendo en solfa incluso los acuerdos internacionales.

¿Qué hacemos con tantos datos generados por tantos sensores? Ya estamos saturados, y solo estamos analizando en torno al 1% de los datos generados. Lo lógico – o casi lo único – que podemos hacer es… poner a otras máquinas a analizarlos. El machine learning se está evidenciando como la gran frontera, como la única forma de lograr que semejante recolección constante de datos tenga un mínimo de sentido. El entrenamiento de un algoritmo con datos de 133.000 pacientes de cuatro hospitales de Chicago entre 2006 y 2011 logró un diagnóstico de situaciones de urgencia tales como problemas cardiovasculares o respiratorios, emitido con cuatro horas de adelanto sobre el realizado por los médicos. Una recopilación de parámetros de la historia clínica del paciente, combinados con información sobre su edad, antecedentes familiares, y determinadas analíticas, tras ser analizadas por un algoritmo, es susceptible de dar lugar a una drástica reducción de fallecimientos relacionados con este tipo de situaciones, en las que la provisión de asistencia médica unas horas antes puede resultar vital.

Sin duda, estamos viviendo un auge de la sensorización. Pero el paso siguiente, lógico o incluso imprescindible va a ser el desarrollo de herramientas para que la inmensa cantidad de datos generados por esos sensores puedan ser analizados con un mínimo de criterio. Un escenario muy interesante, con un potencial brutal, y en el que sin duda veremos pronto algunos movimientos importantes…

 

(This article is also available in English in my Medium page, “Sensorization and machine learning“)

La publicidad en vídeo, a la conquista de la web

Escrito a las 4:31 pm
12

IMAGE: Vlad Kochelaevskiy - 123RFDos anuncios recientes hablan de la próxima introducción de formatos publicidad basados en vídeo en Twitter y en Flipboard, dos redes que hasta el momento tendían a caracterizarse por un predominio de formatos particularmente discretos y respetuosos con el usuario.

Hablamos de dos herramientas con una evolución muy sólida en sus modelos de difusión y con un fuerte crecimiento sostenido que las ha llevado ya a los cientos de millones de usuarios activos, que lógicamente van viendo elevarse cada vez más los costes de proporcionar su servicio y sienten la presión por sus modelos de generación de ingresos.

La pregunta, claro, es hasta qué punto va a resultar compatible la explotación de herramientas de este tipo con un modelo de publicidad basada en vídeo, que obliga a un consumo de contenidos sometido a una cierta exclusividad. La publicidad en vídeo tiende a evocar medios fundamentalmente unidireccionales y pasivos: estamos perfectamente acostumbrados a que el consumo de contenidos en televisión se interrumpa para dejar paso a la publicidad, pero el consumo de contenidos en la web tiende a funcionar de otra manera, porque responde a una pauta activa del usuario. La publicidad en vídeo funciona – o es aceptada, aunque no siempre de buen grado – en páginas de contenidos específicos de vídeo como YouTube, pero tiende a ser rechazada cuando se asocia a otro tipo de contenidos. De hecho, el vídeo preactivado o que se activa con acciones del usuario, como pasar el ratón sobre una zona de la pantalla o hacer scroll vertical, es considerado por la mayoría como un formato claramente intrusivo.

Asociar el formato vídeo con el timeline de Twitter puede resultar una experiencia complicada: el usuario está acostumbrado a un paso por su timeline en el que “manda él”, en el que tiene control prácticamente total sobre lo que se muestra y lo que no. Los formatos patrocinados utilizados hasta el momento proporcionaban un contenido estático que se dosificaba con bastante sensibilidad para evitar un efecto de agotamiento, que podría aparecer de una forma mucho más acusada si pasamos a un formato que incluya vídeo. La decisión de Twitter en este sentido, bastante razonable, ha sido presentar el vídeo en estático, dejar que sea el usuario el que lo active únicamente si lo desea, y cobrar al anunciante solo por las veces en las que el usuario presiona el botón de reproducción. La idea de un timeline de Twitter en el que los anuncios “atacasen” al usuario con imágenes en movimiento y sonido a medida que bajaba resulta, intuitivamente, muy difícil de aceptar.

En el caso de Flipboard, la cuestión parece incluso más compleja: en un formato de presentación que toma como modelo la maquetación de las revistas gráficas, el formato de anuncio a página completa que utilizaba la herramienta hasta el momento tenía un encaje perfecto, poco molesto y perfectamente aceptable. El video, en cambio, representa un formato ajeno al medio que Flipboard toma como referencia, lo que lleva a que la decisión de presentarlo en modo preactivado, sobre la que la compañía aún no ha proporcionado información, sea todavía más delicada.

La invasión del vídeo en la publicidad web lleva asociadas muchos retos. La decisión sobre la preactivación parece sencilla, pero no lo es en absoluto, porque pasar de un número de reproducciones muy elevado de usuarios a uno mucho más restringido correspondiente únicamente a los que presionan el botón de Play supone un obstáculo muy fuerte a la monetización: para una empresa con cientos de millones de usuarios, la idea de “imponer” el anuncio lleva a que los multiplicadores se disparen, y a un esquema muy similar al que conocemos de la televisión: cortar el contenido que deseas voluntariamente consumir con contenidos que no quieres consumir, pero que financian el primero. En cambio, pasar a un modelo voluntario más aceptable por el usuario reduce enormemente el volumen de personas que reciben contenido de manera reiterada, y presentará tasas de conversión seguramente bastante bajas.

Por otro lado, el incremento en consumo de ancho de banda puede ser sensible, algo que puede actuar como una restricción particularmente en entornos móviles. ¿Cómo responderemos a este tipo de estímulos? ¿Presionaremos Play en nuestros dispositivos móviles para ver voluntariamente anuncios porque aparecen en ese momento y no sabemos si vamos a tener oportunidad de verlos después? ¿No lo haremos salvo que estemos en un entorno con WiFi para evitar los temidos límites de muchas conexiones? ¿Se convertirá la publicidad en un objeto social, en algo sometido al FOMO, a ese Fear Of Missing Out que nos lleva a querer ver el anuncio para poder comentarlo con nuestros amigos? Todo parece indicar que mantener las pautas que conocemos de la televisión – anuncios repetidos que son ofrecidos sin discriminación a públicos masivos solo segmentados en función de parámetros como franja horaria y contenidos que los flanquean – sería un error que podría llegar incluso a “matar” el formato, pero por otro lado, tengo mis dudas sobre la capacidad de adaptación de muchos anunciantes y agencias en este sentido.

La tendencia parece clara, y seguramente marque un camino sin retorno: una web cada más parecida a la televisión. Algo que puede funcionar, pero en mi opinión, solo si se hace muy bien, si se evitan un montón de líneas rojas. Y la verdad, considerando las presiones y condicionantes tanto para anunciantes como para soportes… no estoy seguro de que me vaya a gustar.

 

This article is also available in English in my Medium page, “Video advertising sets its sights on the web

¿Cuánto tardamos en definir un fracaso como un fracaso?

Escrito a las 1:51 pm
65

Surface and ZuneA finales de 2006, Microsoft puso en el mercado un reproductor de MP3 llamado Zune. La idea era competir con el iPod de Apple, un dispositivo lanzado en 2001 que había redefinido completamente un mercado que muchos consideraban maduro, con infinidad de fabricantes y márgenes muy bajos. En el período que va desde octubre de 2001 hasta septiembre de 2012, Apple vendió más de trescientos cincuenta millones de dispositivos.

El Zune deambuló tristemente por el mercado durante cinco años, hasta que en octubre de 2011 se dejó de vender el dispositivo, y se cancelaron todos los servicios relacionados con la marca en junio de 2012. Se use la métrica que se quiera usar, fue un fracaso sin paliativos: un intento de “volver a redefinir lo que otro ya había redefinido”, de pensar que se podía superar el producto de otro gracias a… no se sabe exactamente qué. De la experiencia del Zune, realmente, se puede salvar muy poco, es muy posible que nada: no alcanzo a imaginar productos en los que Microsoft haya podido aplicar nada de la inversión que llevó a cabo para diseñar, lanzar y comercializar ese producto. En todos los sentidos, no fue una inversión, sino una pérdida, el fruto de un conjunto de muy malas decisiones empresariales.

Varios años después, demostrando aquello de la incapacidad humana para aprender de los errores, Microsoft repitió el proceso exactamente igual: tomando como modelo otro producto de Apple, el iPad, lanzado en abril de 2010, que había logrado redefinir completamente el tablet como categoría, vender más de doscientos millones de unidades en sus sucesivas generaciones, y sostener en gran medida la próspera cuenta de resultados de la compañía, Microsoft decidió poner en el mercado el Surface, un tablet con el que pretendía mejorar la experiencia iPad dotándolo de varias mejoras en el diseño que supuestamente eliminaban limitaciones del dispositivo de Apple. El lanzamiento del dispositivo tuvo lugar en octubre de 2012, más de dos años después del debut del iPad, y de nuevo, nunca llegó a tener ningún tipo de tracción en el mercado. Todos los intentos de la compañía por obtener una respuesta de mercado mínimamente positiva, incluyendo fuertes rebajas o condiciones muy ventajosas para ventas corporativas fueron un fracaso: el mercado siguió comprando iPads, empezó a comprar tablets de otros fabricantes con Android… e ignoró completamente el producto de Microsoft. Las ventas totales hasta el momento rondan el millón y medio de dispositivos.

Algunas estimaciones cifran las pérdidas en las que la compañía ha incurrido para diseñar, lanzar y comercializar el Surface en algo más de 1.700 millones de dólares, una cifra que, la miremos como la queramos mirar, es una cantidad importante incluso para una compañía con los recursos de Microsoft. Mi experiencia con la tableta de Microsoft no fue mala: me pareció una máquina con un diseño muy cuidado desde el punto de vista de hardware, algo más pesada de lo que debería, pero sobre todo, con un software mal diseñado, que obligaba a reaprender demasiadas cosas al usuario. Por más que mi posición como profesor debería permitirme tener una cierta perspectiva del desarrollo del mercado y de la adopción de dispositivos, nunca logré ver Surfaces en mis clases más allá de los primeros dos que vi como curiosidad nada más ser lanzado, y alguno más en manos de directivos de Microsoft. Pero lo menos importante en este caso era mi opinión: cuando un dispositivo es lanzado con tanto empeño por una compañía con los recursos de Microsoft y se la pega en el mercado de una forma tan inapelable, poco se puede decir a su favor. El mercado ha hablado.

El problema, ahora, es definir la línea entre inversión y pérdida. Surface, en realidad, es ahora un proyecto que pertenece al pasado: puesto en el mercado por un equipo directivo que corresponde a una etapa ya pasada de la compañía, la nueva dirección puede perfectamente considerarlo “un error cometido por otros” y relegarlo al ostracismo. Abandonar todo desarrollo, y sencillamente, considerarlo un fracaso más, algo de lo que la compañía no va a poder extraer prácticamente nada positivo. Sin embargo, en mayo de este año, Microsoft todavía ha tenido la osadía de poner en el mercado la última iteración del Surface, el Surface Pro 3, con más procesador, un soporte mejorado y… un lápiz. ¿Cuánto tiempo invertido, cuánto dinero gastado y cuántas interacciones más del producto necesita la compañía para definir como fracaso lo que para cualquiera es un clamoroso fracaso?

¿Cuánto tiempo ha de pasar para que una compañía acepte un fracaso tan inapelable y ponga fin a la aventura? ¿Qué enseñanzas pueden extraerse a nivel corporativo de una experiencia así, con tantos elementos comunes con la que tuvo lugar con el Zune? ¿Cómo encajar desde un punto de vista estratégico la imposibilidad de hacerse un hueco en un mercado como el del tablet, que se ha convertido en un dispositivo generalmente aceptado y en manos de usuarios de todo tipo de perfiles, pero en el que Microsoft carece completamente de presencia? ¿Van los smartphones por el mismo camino, o se convertirán en la excepción, en el único mercado en el que la compañía, tras una entrada tardía en un segmento que Apple en su momento redefinió, consigue posicionarse de forma significativa?

 

This article is also available in English in my Medium page, “How long will it take Microsoft to admit defeat?

Decisiones propias frente a imposiciones: obligar a tus clientes a cambiar es una decisión peligrosa

Escrito a las 2:02 pm
14

FB MessengerLa web es un entorno complejo, porque todas las reacciones que antes quedaban relegadas al ámbito del comentario privado o de la conversación en el bar, pasan a hacerse peligrosamente visibles, y a afectar potencialmente muchísimas decisiones. La última experiencia de Facebook con la escisión de su Messenger parece una muy buena prueba de ello.

Escindir el Messenger de Facebook en una aplicación separada de la principal puede que fuese una decisión estratégicamente razonable. La app de Facebook en smartphones es ya demasiado compleja y cargada de funcionalidad, mientras que lo que parece triunfar en mensajería instantánea es la simplicidad absoluta y el minimalismo radical, que además ayudan a la hora de posicionar la aplicación en mercados en los que los modelos más habituales de smartphone distan mucho de ser lo que podríamos considerar de última generación.

Contratar a golpe de talonario a un alto directivo de PayPal para gestionar Messenger probablemente no sea tampoco un mal movimiento, dado el prestigio del implicado y la importancia estratégica cada vez mayor que parece estar adquiriendo el mercado de la mensajería instantánea.

Pero cuando finalmente llega el momento de presentar la decisión a tu enorme base de clientes, de decirles eso de “y ahora se acabó Messenger dentro de Facebook, y tenéis que bajar e instalar esta otra app independiente si queréis seguir usándolo“, las cosas cambian. Es muy posible que sea una simple cuestión de matices, de cómo presentas o dices las cosas, pero si no lo haces bien, el resultado es claro: tu nueva app, que lidera el ranking de descargas en función del elevado número de clientes que tienes, muestra además una horrible puntuación de… una estrella, la mínima posible. El equivalente en la web a salir a un escenario y que te cubran de tomatazos. El resultado se acompaña, claro, de artículos que preguntan a los usuarios por sus reacciones y actitudes ante el cambio, de trucos para evitar la obligación de instalar la app, de bulos y mitos que tratan de explicar la falta de popularidad, de todo tipo de teorías conspirativas y, en general, de toda una oleada de mala imagen y percepciones negativas, lo peor que puede ocurrir a cualquier empresa que pretende posicionar un nuevo producto.

¿Es Facebook Messenger un mal producto? ¿Realmente es tan mala la idea de proponer que la funcionalidad se escinda en una app diferente? ¿Es verdaderamente tan molesto gestionar esas conversaciones en la nueva app? ¿Hay algún factor que haga que los usuarios reacciones de manera tan negativa ante ello? Probablemente, la respuesta a todas esas preguntas sea negativa. Pero por alguna razón, los usuarios en la web tienden a reaccionar mal cuando las decisiones no son percibidas como libres, cuando se presentan como impuestas. Por la razón que sea, nos gusta sentir que descargar, instalar y utilizar una app determinada es un proceso en el que decidimos de manera autónoma, en virtud del consejo que nos da otro usuario, de algo que leemos o nos cuentan. Las obligaciones impuestas no funcionan: no quiere decir que no lo hagamos, pero generan una reacción negativa. Muy posiblemente, una reacción que tenderá a diluirse y a tener poca importancia con el tiempo, pero que no deja de ser un obstáculo de cara a la velocidad del proceso de adopción, una carta de presentación que a nadie le gusta tener, y una puerta abierta a la competencia de terceros que quieran capitalizar esa reacción negativa proponiendo su propia herramienta como alternativa.

Facebook no es la primera empresa en sufrir el desprecio o las reacciones negativas de sus usuarios cuando perciben que se les está intentando obligar a hacer algo. Muchas de las reacciones que Google ha experimentado con el desarrollo de Google+, o las que Foursquare se ha encontrado cuando presentó Swarm tienen una dinámica muy similar, y parecen recomendar que se actúe con muchísimo cuidado a la hora de proponer movimientos similares. Por buenos que inicialmente puedan parecer, por recomendables que sean desde el punto de vista estratégico, por aconsejables que resulten de cara a la funcionalidad o el desarrollo futuro, si su evolución conlleva plantearlos de una manera que los usuarios puedan percibir como una imposición, piénsalo dos veces.

¿Conservadurismo? ¿Rechazo a cambiar cosas que aparentemente funcionaban bien? ¿Resistencia al cambio? ¿Pereza? ¿Qué lleva a los usuarios a reaccionar de manera tan negativa ante este tipo de propuestas? La razón, muy probablemente, tiene más que ver con la psicología que con la tecnología o la funcionalidad, pero no por ello merece una consideración de menor importancia. En los procesos de adopción, hay factores que funcionan maravillosamente bien y se convierten en un estímulo, y otros que generan rechazo. Plantear un cambio que otros usuarios han probado y recomiendan, que ha sido antes testado en beta y con una disponibilidad limitada, que responde a una petición aparentemente generalizada, etc. puede representar un éxito de crítica y público. En cambio, proponerlo como algo que los usuarios tienen que llevar a cabo so pena de ver como su herramienta anterior deja de funcionar o como resultado de ser conminados a ello por un mensaje emergente funciona como una especie de insulto o bofetada a su libertad de acción, como una forma de demostrarles que en realidad carecen de libertad, y da lugar a una reacción negativa.

Sutil, sí. Pero cada vez más evidente.

 

This article is also available in English in my Medium page, “Giving your customers no choice but to change is a risky move: just ask Facebook

La industria del cine, quince años después…

Escrito a las 1:02 pm
34

IMAGE: Brad Collett - 123RFWe don’t want to sue 16-year-olds or mums and dads. It takes 18 months to go through the courts and all that does is make lawyers rich and clog the court system. It’s not effective.”

Graham Burke

(No queremos demandar a niños de 16 años de edad, o a las mamás y los papás. Se tarda 18 meses en pasar por los tribunales, y todo lo que se consigue es hacer ricos a los abogados ricos y obstruir el sistema judicial. No es eficiente)

Esta es todavía la actitud de la industria del cine, quince años después de Napster: darse cuenta de que perseguir a sus espectadores no sale rentable, y anunciar que van a dejar de hacerlo. Impresionante.

¿Qué tal pensar que lo más rentable a largo plazo podría ser no solo no perseguir ni acosar judicialmente a tus espectadores, sino simplemente intentar darles tus productos como ellos los quieren, en lugar de sometidos a restricciones que les hacen perder una parte sustancial de su atractivo? ¿Qué tal hacer caso de los estudios que afirman que la única manera de reducir las descargas irregulares es proporcionando esquemas que permitan acceder a tus productos de todas las maneras posibles, desde gratis financiados con publicidad hasta pagos razonables por descarga, pasando por tarifas planas, streaming y todo aquello que la tecnología actual o futura pueda ofrecer? ¿Qué tal eliminar las absurdas ventanas geográficas que crean incentivos a la descarga, o adoptar una actitud comprensiva y amigable hacia quienes simplemente quieren acceder a tus productos? ¿Qué tal dejar de hacer trampas en tus cuentas considerando cada descarga como una venta perdida, o dejar de comprar políticos corruptos para que dicten leyes que permitan perseguir mejor a tus clientes?

Es simplemente por decir algo, vamos. Que después de quince años, algo podían haber aprendido. Ya no digo mucho, ni todo… algo. Por eso de aplicar la experiencia propia, ya que todo indica que no te vale la ajena.

Oh, qué gran detalle: no nos van a denunciar. Hagamos fiesta…

 

This article is also available in English in my Medium page, “The movie industry, fifteen years on…

Pues yo creo que Amazon tiene razón

Escrito a las 2:55 pm
39

Amazon - HachetteLa ya prolongada disputa entre la editorial francesa Hachette y Amazon ha vivido dos episodios más cuando un grupo de más de novecientos autores autodenominados “Authors United” firmaron y publicaron a toda página en el New York Times una carta urgiendo a Amazon a “dejar de hacer daño a los autores”, denunciando sus recientes acciones e invitando a sus lectores a enviar sus quejas directamente a la dirección de correo electrónico de Jeff Bezos.

Amazon, por su parte, contestó al grupo de autores con otra carta abierta, esta firmada por “Readers United”, en la que igualmente hacían publica la dirección de correo del CEO de Hachette, Michael Pietsch, invitando a los lectores a contactarlo directamente poniendo en copia a Amazon, y pidiéndole que acepte los precios más bajos que Amazon reclama para los libros electrónicos. 

No es la primera vez que Amazon entra en conflicto con las editoriales sobre los precios de los libros electrónicos: en enero de 2010, Amazon retiró de su tienda todos los libros de la editorial Macmillan, editorial que finalmente logró forzar un precio superior a los $9.99 que Amazon pretendía – para terminar viéndose, dos años y medio más tarde, sancionada por las autoridades anti-monopolio norteamericanas junto con otras grandes editoriales y con Apple por fijación de precios.

Ya en aquel momento me mostré inequívocamente de parte de Amazon en su disputa, y ahora vuelvo a hacer lo mismo. Independientemente de que la referencia a Orwell en la carta de Amazon sea correcta o no, como usuario y cliente me siento claramente mejor defendido y representado por una Amazon que, desde mi punto de vista, pretende redefinir la cadena de valor del negocio editorial a mi favor, que por unas editoriales que claramente pretenden sostener una desproporcionada asignación de la tarta para sí mismas. Que las editoriales, como en su momento hicieron las discográficas, pidan a determinados escritores que se alisten en sus filas en función de contratos que tienen con ellos y publiquen cartas en apoyo a su postura tampoco cambia la cosa: por más que la miro, la estructura de precios y márgenes propuesta por Amazon tiene más lógica, más sentido, resulta más sostenible, y redunda no solo en una mayor accesibilidad a la cultura, sino también en un desincentivo mayor del consumo irregular.

Amazon es muy libre de considerar el precio de los libros electrónicos un tema importante en el desarrollo de su estrategia y sus planes de futuro. La compañía ha fiado muchísimas de sus expectativas de futuro a un modelo en el que los libros resultan enormemente accesibles a precios cada vez más disuasorios, con la idea de ofrecer una accesibilidad elevadísima, una estantería virtual en la que solo tenemos que alargar la mano cada vez que pretendemos acceder a un libro. Cuando las editoriales se empeñan en seguir calculando los precios de sus productos en función de la antigua cadena de valor de la industria, no hacen más que pretender justificar su existencia y su estructura en función de unos costes que claramente ya han cambiado. ¿Son libres de hacerlo así? Tal vez lo sean desde el punto de vista empresarial y del libre mercado, pero en ese caso, también lo es Amazon de excluirlas de su canal si así lo desea.

La decisión de Amazon no está exenta de riesgos: obviamente, el atractivo de su propuesta disminuye cuantos más lectores son incapaces de encontrar en la plataforma los libros que buscan. Excluir los libros de un gran sello editorial puede representar un problema importante para Amazon de cara a la opinión pública: en modo alguno hablamos de “las pobrecitas editoriales presionadas por el gigante del comercio electrónico”, sino de una serie de empresas que habitualmente entregan a los autores una parque pequeñísima del margen y que pretenden seguir llevando a cabo el reparto en sus propios términos, aunque muchísimos de los costes implicados en esa estructura de mercado hayan desaparecido. No las llaman big five por casualidad. Y cuanto más se consolidan, peor veo las cosas.

Lo siento, pero la imagen que mi cerebro recibe cuando veo a los autores ponerse del lado de sus editoriales en esta guerra no es otra que la del síndrome de Estocolmo. Si Amazon quiere imponer sus condiciones, las que considera inherentes a la viabilidad futura de su modelo de negocio, a costa de correr el riesgo de que las editoriales renuncien a distribuir en su plataforma y la hagan menos atractiva, me parece una táctica válida, que las editoriales podrán contestar como estimen oportuno. Como autor, una disputa así me llevaría a descartar a Hachette como editorial y a irme con otra que tenga mejor criterio a la hora de distribuir mis obras, o incluso a pensar en la posibilidad de convertirme en mi propio editor de la mano de Amazon, con todo lo potencialmente bueno y lo malo que ello pueda conllevar. Después de todo, Amazon vive de intentar a toda costa reducir la fricción entre producto y lectores, mientras que las editoriales luchan claramente por incrementar esa fricción y por cobrarla lo más cara posible.

No, ni soy el único en ponerse del lado de Amazon en esta disputa, ni estoy siempre del lado de Amazon: ya son varias las ocasiones en las que he contribuido a denunciar algunas de sus prácticas. Como lector y como autor, estoy con Amazon en esto, y me veo infinitamente más identificado con sus explicaciones y su interés por poner los libros electrónicos más baratos y hacerlos más atractivos que con las reclamaciones y las quejas de Hachette tomando a sus autores como rehenes. Creo que Amazon tiene razón en intentar obligar a Hachette a cumplir con su estrategia de precios… no solo razón, sino también razones para hacerlo. No, Amazon no es una hermanita de la caridad. Pero en esta guerra, pienso que tengo mucho más a ganar estando de su lado.

Y no solo eso: además, estoy deseando ver el resultado de la siguiente batalla.

 

This article is also available in English in my Medium page, “I’m backing Amazon on this one

Logotipo de Blogestudio Logotipo de Acens