El Blog de Enrique Dans

Entrevista en No Solo Cine

Escrito a las 9:55 am
9

Entrevista distendida a Enrique Dans - No solo cine

José López Pérez, lector habitual, me hizo una pequeña entrevista hace un par de días para su página, No Solo Cine. La publicó ayer bajo el título “Entrevista distendida a Enrique Dans“.

Diez preguntitas cortas en modo conversación agradable en las que empezamos hablando sobre tendencias de futuro y cuestiones relacionadas con la tecnología, seguimos con mi forma de trabajar y enfocar mi presencia en la red, mis aficiones, etc., y terminamos hablando incluso sobre mis vinos favoritos y hasta sobre el sentido de la vida :-)

Las noticias y la metáfora móvil

Escrito a las 12:55 pm
18

IMAGE: Agnieszka Murphy - 123RFSupongo que tendrá que ver con el mayor uso del smartphone que tendemos a hacer durante las vacaciones, pero llevo ya un cierto tiempo dándole vueltas a la tan traída y llevada crisis del periodismo y a la fortísima pujanza del móvil como dispositivo de consumo de contenidos.

En la discusión sobre si hablamos realmente de crisis en el periodismo o simplemente de una crisis de modelos empresariales aquejados de una crónica falta de innovación, la ausencia de propuestas en torno a las plataformas móviles se convierten en una auténtica prueba de concepto, en una denuncia de que, en el momento en que la tecnología ofrece más y mejores herramientas tanto para llevar a cabo la actividad periodística, como para distribuir el producto a más y más usuarios potenciales, las empresas que habitualmente se dedicaban a esas tareas no están ni se las espera, y toda la innovación parece venir de nuevos entrantes en ese espacio.

Veo muy poco trabajo aplicado al desarrollo de nuevas metáforas de presentación de información adecuadas a las pantallas de los smartphones. Me parece profundamente evidente que los patrones de consumo que realizamos en una pantalla de cuatro o cinco pulgadas que sujetamos con una mano mientras accionamos con el dedo tienen que ser forzosamente diferentes de los que llevamos a cabo en un ordenador o en un tablet, pero aún no he conseguido ver ningún diseño de interfaz con una usabilidad que de verdad me haga “ver la luz”, me lleve a pensar “claro, era así”.

Por otro lado, me parece importante “dignificar” el propósito de esa pantalla para que sirva para algo más que para una consulta de información rápida, algo que solo soy capaz de imaginarme mediante metáforas basadas en capas: mi impresión es que una interfaz para el consumo de noticias en el móvil tiene que partir de unas pocas acciones que permitan enterarse rápidamente de lo que ha pasado de forma cómoda, sencilla y rápida, pero que tiene que proporcionar posibilidades de “profundizar” en las noticias o asuntos que interesan, dando acceso tanto al verdadero trabajo de fondo que posibilita el desarrollo de la primas capa, como a fuentes adicionales categorizadas en forma de agregación (sí, esa actividad que tanto tiene que contribuir a un ecosistema caracterizado por la hiperabundancia de información, y que absurdas medidas de gobiernos retrógrados pretenden tasar y dificultar, en beneficio de “los periódicos de toda la vida”).

¿Realmente cuesta tanto conceptualizar una forma de presentar información suficientemente visual y atractiva para la pantalla del móvil, pero que permita profundizar en la información cuando se desee? Estoy convencido de que una interfaz de ese tipo, combinada con un adecuado planteamiento de la capa social – incentivando la compartición y facilitando la interacción – y con determinados modelos económicos podría llevar al desarrollo de estructuras nuevas en las que los periodistas trabajan con muchas más facilidades, pueden ver los frutos de su trabajo con mucho más detalle analítico, evitar las tentaciones del sensacionalismo y el titular basura mediante el adecuado control de gestión, y proporcionar un servicio que el usuario aprecie hasta el punto de estar dispuesto a colaborar en su sostenimiento. En lugar de eso, el periodismo prefiere seguir ignorando los cambios de su entorno, fiándolo todo a modelos claramente insostenibles o directamente inservibles, y frustrando a los profesionales que participan en la actividad y tienen un mínimo de vocación.

Cuando una tecnología prueba una tasa de adopción tan rápida y consistente, todos los esfuerzos de aquellos que se ven afectados por ella deben dirigirse a la adaptación al nuevo escenario que esa tecnología está definiendo. Algo que el periodismo, nos pongamos como nos pongamos, no está haciendo. En lugar de investigar esas nuevas metáforas, de pensar en la usabilidad como próxima gran frontera y de capacitar a sus profesionales para que aprendan a trabajar y a adaptarse a un escenario diferente, se dedican a seguir imprimiendo papel, a seguir pensando que tiene futuro, a demonizar la red con frases absurdas, y a… otras cosas peores.

Vendrán mejores tiempos. Pero tendrán otros protagonistas.

 

This article is also available in English in my Medium page, “News and mobile metaphors

¿Qué puede hacer IFTTT con treinta millones de dólares?

Escrito a las 2:09 pm
9

IFTTT logo

IFTTT, acrónimo correspondiente a IF This Then That, es una de esas utilidades que sigo desde su lanzamiento en el año 2010 porque me parece, esencialmente, una buena idea. Una forma de conectar servicios entre sí, una especie de middleware o tejido conectivo de la red que posibilita crear recetas condicionales sencillas para que cuando pasa cualquier cosa, se desencadene cualquier otra.

Muchas personas que conozco utilizan IFTTT para automatizar eventos, como por ejemplo, que cuando publican algo en una red, sea republicada automáticamente en otras, pero su utilidad va potencialmente mucho más allá. Y de hecho, el escenario de sus posibles aplicaciones está creciendo de manera notable si tenemos en cuenta el desarrollo de la llamada “internet de las cosas“, que incrementa muchísimo la cantidad de cosas que se pueden interconectar y unir mediante reglas condicionales. De hecho, este tipo de reglas posibilitan una unión muy interesante entre lo virtual y lo físico, como el inversor que hace que las bombillas Philips Hue de su despacho brillen en tonos verdes cuando su portfolio de inversiones sube más de un 10% o en tonos rojos cuando baja más de un 10%, o infinidad de posibilidades más.

Pero más allá de un simple gestor de reglas condicionales y de tratar de conectarse con toda API que existe para poder actuar sobre cuantas más herramientas mejor, lo verdaderamente interesante de IFTTT es que ha superado ya un tamaño crítico suficiente como para que las reglas del juego se den la vuelta y sean las propias herramientas las interesadas en aparecer en su plataforma. El valor que los usuarios perciben en una herramienta puede efectivamente incrementarse si esta dedica una parte de sus esfuerzos de desarrollo a integrarse con otros aparatos o herramientas a través de IFTTT, lo que está llevando a cada vez más desarrolladores a crear sus propios IFTTT channels, a través de los cuales ofrecer estas posibles funcionalidades o, incluso, recibir ideas de otros usuarios. IFTTT permite desarrollar recetas propias, pero también compartirlas con la comunidad si crees que pueden ser útiles para otros, lo que está dando lugar a un amplio ecosistema de ideas y posibilidades. Es más que posible que pasear por la página de canales de IFTTT te lleve, con muy poco esfuerzo, a encontrar posibilidades susceptibles de incrementar sensiblemente la utilidad que extraes de muchas herramientas.

Ayer, IFTTT anunció una inversión de treinta millones de dólares por parte de Northwest Venture Partners, con el foco puesto fundamentalmente en el posible crecimiento que puede experimentar al hilo del desarrollo de la internet de las cosas. Una inversión de treinta millones de dólares, en el escenario en el que nos movemos actualmente con miles de millones que bailan de manera mareante en transacciones increíbles, no debería suponer una noticia tan importante, salvo por el hecho de hablar de una herramienta sencilla, desarrollada de manera sumamente frugal, que se ha movido relativamente bajo el radar salvo para un cierto perfil de usuarios avanzados, y que ha sido capaz de llegar hasta donde ha llegado con una inversión total de nueve millones de dólares. Que no es que sea poco dinero en términos de lo que una startup puede hacer con él, pero sí permite imaginar muchas posibilidades de futuro. Sobre todo si la idea es convertirse cada vez más en una clara muestra de las posibilidades de las estrategias de plataforma

 

This article is also available in English in my Medium page, “What can IFTTT do with $30 million?

Redes sociales y autocensura

Escrito a las 1:01 pm
24

IMAGE: Wu Ruiyun - 123RF

Un informe de Pew Research titulado Social media and the spiral of silence publicado hace dos días está generando una buena dosis de discusiones en la red acerca de lo preocupante que resulta que un medio de expresión teóricamente libre, abierto y con bajísimas barreras de entrada como la red se esté, en realidad, convirtiendo en un lugar donde los usuarios refuerzan su tendencia a la autocensura, y rechazan hablar de temas en los que se ven en una actitud minoritaria o que creen que van a generar rechazo.

El asunto me resulta sumamente familiar: prácticamente cualquiera que haya pasado un cierto tiempo experimentando con la compartición de información en la web social conoce los condicionantes de esa dinámica, y en efecto, la autocensura es un hecho evidente y conocido. Básicamente, por un principio tan claro como el de la asimetría. A medida que crece la audiencia esperada o percibida, la cantidad de información que estamos dispuestos a compartir sobre nosotros mismos disminuye.

El principio es claro: con una audiencia muy restringida, como una charla con un amigo, una comida familiar, etc., muchos aspectos de lo que consideramos que nos define como personas – nuestras opiniones, posiciones en determinados temas, etc. – pueden ser exteriorizados sin demasiados problemas. Si de ahí pasamos a Facebook, donde aún se mantiene cierta impresión – errónea o no – de que compartimos únicamente con aquellos que hemos aprobado como amigos, nuestra inclinación a compartir información que de alguna manera nos define o nos etiqueta disminuye, porque el círculo es más grande y sus fronteras más inciertas. Si de ahí pasamos a Twitter, o a cualquier otra página abierta a una audiencia global, el incentivo a compartir ese tipo de información puede llegar a prácticamente desaparecer, salvo que pasemos a emplear el anonimato. A medida que la audiencia percibida crece, vemos disminuir el control de los posibles efectos de lo que decimos, y el espacio que dejamos a lo personal es más restringido. Pura psicología y sentido de supervivencia.

Además, entra en juego otra variable fundamental: la riqueza del contexto. En un entorno próximo o personal, la riqueza del canal permite añadir aclaraciones, explicaciones o contexto (gestual, inflexiones del tono de voz, etc.) que pueden matizar o solventar determinados malentendidos o problemas. El emisor se siente razonablemente en control de sus palabras, no tanto de su alcance como del resultado o impresión final que causan las mismas en sus interlocutores. Si a ese pequeño grupo conocido añades personas con un nivel de confianza menor, verás automáticamente surgir un nivel de autocensura mayor. Si lo extiendes a las redes sociales, ese nivel crece, porque a pesar de que el canal permite la réplica, el matiz, la repregunta o la aclaración, éstas pueden quedar en muchas ocasiones alejadas del contexto original, la idea central puede ser trasladada sin matices, y tenemos la sensación – y de hecho, así ocurre en muchas ocasiones – de estar pegándonos una etiqueta por la que otros pueden juzgarnos de manera completamente descontextualizada en cualquier otro momento.

La autocensura no es un error o un problema de las redes sociales, sino una característica de las mismas. Mi comportamiento en Twitter no es igual ahora, con casi doscientos mil seguidores, que cuando tenía doscientos, y mi impresión es que es una pura cuestión de lógica y supervivencia. Cuantas menos personas y más conocidas, más puedo permitirme el lujo de no tener que matizarlo todo por si surge un posible malentendido, o de confiar que una frase no va a convertirse en una etiqueta indeleble porque, como mínimo, está matizada por todo el contexto anterior. En privado en mi salón puedo vociferar que si un día veo al árbitro del partido de fútbol que estoy viendo, me comeré su hígado… sin que ninguno de los que me rodean piense realmente que existe la más mínima posibilidad de que un día me abalance sobre el colegiado cuando pasa por la calle e intente extraer y devorar sus vísceras. Si lo digo en Twitter delante de doscientas mil personas, la cosa, obviamente, cambia, y eventualmente, hasta el propio árbitro podría denunciarme por amenazas.

Otra cosa, lógicamente, es que eso signifique que las redes sociales se conviertan en un lugar donde, de facto, no se exponen argumentos si uno se siente en minoría. En realidad, lo que tendemos a aplicar aquí es un filtro progresivo: antes de exponer algo en un foro público, lo “validamos” en foros más privados, en los que percibimos un riesgo inferior, y que además pueden contribuir a enriquecer nuestro razonamiento. En mi caso, llevo tantos años como años llevo en la red tratando de explicar a cientos de comentaristas que lo que escribo aquí son ideas en desarrollo, que muchas veces cambio de opinión o veo cómo se enriquecen gracias a los comentarios, y que como soy profesor, mi página es simplemente un taller de maduración de ideas y de argumentos previo a su uso en otros foros donde, gracias a eso, creo que me puedo comprometer más. Con el tiempo, he entendido mi papel en mi página como algo muy parecido a lo que hago en mis clases: generar discusión en un contexto de riqueza de información, y tratar de que esa discusión enriquezca a todos los participantes, en muchos casos a expensas de no intentar extraer unas conclusiones unívocas (hay pocas verdades absolutas, o visto de un modo más budista, las respuestas están más en el camino que en la meta).

¿Funcionan las redes sociales como un desincentivo a la opinión y a la participación? Quien no se autocensura razonablemente a la hora de exponer sus opiniones en un tema, pasa rápidamente a ser calificado de “bocachancla”… y en muchos casos, seguramente lo es. Un foro mayor exige, razonablemente, un nivel de procesamiento y de seguridad mayor, y no me parece que eso sea un problema derivado de internet o de las redes sociales, sino del más puro sentido común. Por otro lado, la propia red cuenta con ciertos “mecanismos de seguridad” en este sentido: por un lado, la centralidad que se obtiene en determinados temas en función de las propias métricas sociales, que lleva a que cuando alguien opina con cierto historial de autoridad en un tema, su opinión sea activamente buscada para temas afines. Por otro, el propio anonimato, que no solo sirve para atacar de manera injustificable y haciendo uso de formas que no usaríamos a cara descubierta, sino también para exponer ideas que no queremos que se vean sesgadas por nuestra identidad o asociadas a la misma. Cada vez que comento algo en un foro público encuentro mucho de ambas cosas: argumentos de autoridad basados en “dado que soy esto o aquello, debes escucharme” o “como no sabes quien soy, te puedo dar una contra-argumentación que no podría darte si lo supieras”. Como valor mucho ambas posibilidades, mantengo en mi página la posibilidad de hacer comentarios anónimos, porque cuando usan el anonimato para insultar puedo eliminarlos, y cuando lo usan para aportar algo, son bienvenidos.

La autocensura está construida como un mecanismo de autodefensa en la naturaleza humana, en la misma esencia del contrato social. Lo único que hacen internet y las redes sociales es poner a los usuarios en la capacidad de dirigirse a audiencias con una dimensión muy superior a la que antes podían siquiera llegar a pensar que podrían dirigirse. ¿Sería bueno, sano o de alguna manera recomendable que esos usuarios se dirigiesen a esas audiencias sin el filtro de la autocensura? Sinceramente, creo que no. A mayor audiencia potencial, mayor nivel de autocensura: habla de aquello sobre lo que estés muy seguro y tengas buenos argumentos, o no hables. O si lo haces, trata de hacerlo de manera no categórica, evitando que la dimensión de la audiencia y la ausencia de un contexto adicional te pueda perjudicar, como si pegases la etiqueta con tus palabras – o con un burdo resumen de las mismas – a tu frente a partir de ese momento. De hecho, lo que ocurre en la red es precisamente lo contrario: los foros más productivos son aquellos en los que los participantes se autocensuran más cuando no están seguros de lo que hablan, mientras que los foros que promueven una participación excesivamente abierta se convierten en un gallinero.

¿Autocensura en las redes sociales? Mucho me temo que, como dicen los programadores… “it’s not a bug… its an undocumented feature”

 

This article is also available in English in my Medium page, “Social networks and self-censorship

El kill switch californiano: una solución elegante a un problema real

Escrito a las 1:53 pm
25

IMAGE: Vyacheslav Ryaschikov - 123RFTodos los smartphones salidos de fábrica después del 30 de julio de 2015 a la venta en California deberán llevar incorporado el llamado kill switch, una función que posibilitará su borrado y desconexión total remota e impedirá su vuelta al funcionamiento mediante el procedimiento habitual. La desconexión no podrá ser revertida ni siquiera mediante el reset completo del terminal, que quedará de hecho convertido en inservible salvo que sea introducida una contraseña de desbloqueo. La ley californiana controla el problema a dos niveles: por un lado, exigiendo a los fabricantes el desarrollo e implantación del kill switch, y por otro, prohibiendo activamente la venta de terminales que no los tengan instalados, con multas de hasta $2.500 por dispositivo vendido.

La ley viene a intentar paliar un hecho evidente y conocido: el robo de smartphones se estaba convirtiendo en el auténtico protagonista de las estadísticas de delincuencia en muchas ciudades. Con precios que pueden llegar a los seiscientos o setecientos euros en el caso de algunos modelos, procedimientos sencillos de reset y un activo mercado negro de reventa de terminales, los smartphones se estaban convirtiendo en un objeto de acceso relativamente sencillo para los profesionales del robo al descuido o con violencia, y la tendencia no mostraba signos de remitir.

Por el momento, únicamente la última generación de iPhone con iOS 7 cumple con la totalidad de los requisitos de la ley (borrado remoto, desconexión remota, e imposibilidad de vuelta a la operatividad con un código específico). En el caso de Android, solo lo serán a partir de Android L, esperada a finales de 2014. Las versiones anteriores, en ambos casos, permiten el borrado remoto, pero no la desactivación total que en último término desincentiva el robo.

Las funciones de seguimiento desarrolladas por algunos fabricantes, o la posibilidad de instalar aplicaciones que enviasen datos sobre la geolocalización del dispositivo – o incluso fotos de la persona que lo tenía en ese momento tomadas a través de la cámara frontal – mostraban una utilidad más bien escasa: tratar de recuperar un terminal robado uno mismo es algo completamente desaconsejable y potencialmente muy peligroso, y la policía suele estar muy ocupada como para dedicarse a perseguir ese tipo de delincuencia, que además suele resultar de seguimiento complejo (se precisa una orden para registrar un terminal o para obtener su geolocalización solicitándola a un proveedor de acceso), de manera que las historias de recuperación mediante persecuciones de película, aunque existen son más bien escasas.

Ante estos antecedentes, la posibilidad lógica era obligar a los fabricantes a instalar de fábrica este tipo de función: un desarrollo no especialmente complejo, que elimina la propuesta de valor del robo como tal al destruir el valor de reventa del smartphone. En un entorno en el que los terminales adquieren cada vez un mayor número de funciones, que pueden ir desde la conexión y desconexión de la alarma de casa hasta la gestión de cerraduras, identidad, aplicaciones sensibles o contraseñas de todo tipo, la necesidad de una solución aplicada de manera coordinada era más que clara. De hecho, sistemas similares que permiten la desconexión completa y la imposibilidad de volver a ponerlos en uso de manera estándar han sido los que han conseguido descensos en otras categorías de robos, como los automóviles: entre 1990 y 2013, los robos de automóviles en la ciudad de Nueva York cayeron un 96% gracias al uso de sistemas de inmovilización que impedían el clásico hotwiring o “puente” en el sistema de encendido. En el caso de vehículos de alta gama, el uso de sistemas de seguimiento por geoposicionamiento es también habitual desde hace ya más de una década.

La cuestión resulta interesante cuando pensamos en un futuro en el que cada vez más objetos de uso cotidiano van conectados de alguna manera a un sistema electrónico de comunicaciones: el incentivo para muchos delitos contra la propiedad puede disminuir de manera drástica cuando todos esos dispositivos cuenten con mecanismos similares. Imaginemos un ladrón entrando en un domicilio: muchos de los objetos que típicamente tratan de sustraer son aparatos electrónicos como ordenadores o televisores, que cada vez más cuentan con conexión a internet y pueden ser objeto de una implantación similar.

El futuro, en cualquier caso, permite especular con escenarios bastante interesantes: por un lado, posibles ladrones convertidos en hackers de alto nivel que o bien luchan por desactivar este tipo de sistemas, o centran su actividad directamente en el terreno de lo virtual y no en lo físico, en el robo de datos y no de aparatos. Por otro, la posibilidad de dejar un smartphone u otro aparato electrónico en la mesa de una terraza mientras vamos al baño, y que nadie se plantee su robo porque, sencillamente, es inútil hacerlo.

 

This article is also available in English in my Medium page, “The California kill switch: a smart solution to a real problem

Facebook y los titulares basura: ¡no podrás creer lo que pasó después!!!

Escrito a las 3:24 pm
22

IMAGE: Rangizzz - 123RFFinalmente, Facebook actúa contra el clickbait o titulares basura, cuando ya los timelines de todos tus amigos estaban irremediablemente infestados con ellos, y tomará medidas mediante la modificación de sus algoritmos para reducir el impacto de las noticias que utilizan este tipo de técnicas de captación de atención.

El clickbait es pura y simplemente basura. Una técnica sensacionalista completamente insostenible y absurda equivalente a hablar a gritos o escribir todo en mayúsculas, asentada en unos burdos principios de psicología social. Sin embargo, la técnica funciona: muchas personas hacen clic en ese tipo de titulares, y eso lleva a que los algoritmos sobreestimen esas noticias, dando lugar a un efecto de realimentación. En realidad, los usuarios odian este tipo de noticias que promueven un modelo de gratificación rápida, pero que responden claramente al modelo del spam. El hecho de que hayan proliferado como la peste no las convierte en algo aceptable, en un signo de los tiempos o en una buena cosa, salvo que seas un devoto del “millones de moscas no pueden estar equivocadas“. Si dejas de compartir ese tipo de basura, no estarás perdiendo popularidad: estarás haciendo un favor a tus amigos.

Publicaciones como Upworthy, Upsocl o BuzzFeed, entre muchas otras, han elevado los titulares basura a la categoría de epidemia. Pero indudablemente, ese tipo de técnicas pueden elevar el número de páginas vistas, algo que BuzzFeed ha sido capaz de capitalizar en una inversión de cincuenta millones que sitúan el valor de la compañía en $850 millones, más de tres veces lo que vale, por ejemplo, un símbolo del periodismo como The Washington Post. ¿Quiere decir esto que la compañía vale realmente eso, o que ha encontrado algún tipo de “piedra filosofal”? No, lo único que quiere decir es que ha industrializado la producción de basura, ha traspasado definitivamente todas las barreras entre contenido y publicidad, y que por la razón que sea, a muchas personas les gusta eso. Si el futuro de la información o de la web es esa prostitución absoluta de todo en nombre obtener viralidad al precio que sea, que me vayan borrando.

Tras una dura discusión con BuzzFeed, Facebook ha decidido actuar contra sus técnicas de captación de atención y las de sus muchos imitadores, tratando de introducir restricciones en sus algoritmos que sean capaces de separar ese tipo de historias de las que son verdaderamente interesantes. ¿Logrará ese tipo de actuaciones contra el equivalente en las noticias de la comida basura provocar la caída de las publicaciones que las usan, o se trata simplemente de una manera de reafirmar el control que la red social tiene sobre lo que sus usuarios ven o dejan de ver?

La posición central de Facebook como generador de tráfico podría llevar a pensar que una modificación de sus algoritmos puede tener un efecto notable sobre las páginas vistas y la cuenta de resultados de este tipo de publicaciones, pero lleva por otro  lado a preguntas acerca de la idoneidad de poner a la red social como guardián moral de lo que se considera aceptable o inaceptable en términos de amarillismo y spam. Por el momento, mi opinión es que la decisión de Facebook está perfectamente justificada: el clickbait explota una vulnerabilidad tanto de la naturaleza humana como de los algoritmos de recomendación social, y estaba estropeando claramente la propuesta de valor de la red. Si los usuarios no corrigen sus actitudes con respecto a este tipo de noticias por sí mismos descontando su evidente amarillismo, alguien debe hacerlo por ellos, o la situación final sería no solo insostenible, sino mucho peor para todos. La decisión de Facebook, en realidad, es puro sentido de conservación de su propuesta de valor, la que lleva a sus usuarios a acudir regularmente a la red social para ver noticias que les interesan, no basura variada que trata de captar su atención al precio que sea. En el fondo, la corrección de una anomalía. De las personas o de los algoritmos, pero una anomalía al fin y al cabo.

 

This article is also available in English in my Medium page, “Facebook and junk headlines: you won’t believe what happened next!!

¿Es realmente necesaria una versión móvil?

Escrito a las 4:45 pm
64

Mobile access Aug-2014 - Enriquedans.comLa evolución del acceso a esta página a lo largo de los últimos años refleja una tendencia que no por esperada, resulta bastante sorprendente: el ascenso imparable del consumo desde dispositivos móviles. Hace algo más de un año lo estudié en perspectiva, bastante sorprendido por el 27% que en aquel momento alcanzaba ese tipo de uso en una página que, después de todo, suele tener contenidos relativamente largos, no especialmente orientados a una lectura rápida, pero sobre todo, que carece de una versión móvil o de un diseño responsive. El acceso a esta página desde la pantalla de un smartphone ofrece exactamente la misma disposición de página que desde la de un ordenador, y aunque se puede leer de forma razonable mediante dos toques en la columna de texto para hacer que ésta ocupe la totalidad del ancho de pantalla, no es, indudablemente, la experiencia óptima.

Sin embargo, los accesos desde dispositivos móviles no dejan de subir. El gráfico muestra los porcentajes correspondientes a las últimas cien mil visitas: 57% desde ordenadores, 31% desde smartphones, y 12% desde tablets. En total, 43% de consumo desde dispositivos móviles. Aunque los datos correspondan a agosto, período típicamente vacacional en España, y ello pueda conllevar un uso más habitual de este tipo de dispositivos, no dejan de ser llamativos.

Los datos, en cualquier caso, reflejan una tendencia global: la mayor parte del consumo de contenidos se está desplazando hacia apps móviles, algo que puedo comprobar todos los días cuando consulto mis estadísticas de acceso: tanto en las aplicaciones que permiten un consumo completo de mi contenido, tales como Feedly o Pulse, como en aquellas que suponen simplemente un acceso al mismo, como Facebook, Twitter, Google+, LinkedIn o Flipboard (en orden decreciente de popularidad), el ascenso de las entradas desde smartphones y tablets es igualmente notable. Claramente, el consumo desde dispositivos móviles se está comiendo el mundo, y se convierte en la única categoría cuyos tiempos de consumo parecen crecer de manera imparable.

Por otro lado, se sigue apreciando un incremento de una modalidad de consumo que parece volver a la popularidad: la newsletter. Actualmente, 6.400 personas acceden al contenido de esta página a través del correo electrónico cada día a partir de las siete de la mañana, lo que lleva a fenómenos curiosos dentro del flujo general de atención, y particularmente, a un segundo pico de consumo y comentarios en la página y en redes sociales al día siguiente de haber escrito la entrada. Sigo administrando ese servicio, al igual que el feed de la página, mediante Feedburner, un servicio que nadie sabe en qué momento Google decidirá dejar de ofrecer, así que es posible que tenga que hacer cambios pronto.

La pregunta, claramente, es hasta qué punto es necesario invertir tiempo y esfuerzo en el desarrollo de una versión móvil o un diseño responsive. Obviamente, es mejor tenerla que no tenerla y es algo que está en los planes para un futuro rediseño de la página, pero ¿es realmente tan necesario? El gráfico de arriba me lleva a pensar que no lo es tanto: si acceder a esta página desde un smartphone fuese realmente tan molesto, lo natural sería pensar que ese porcentaje no debería ser tan elevado.

¿Y tú? ¿Cómo sueles acceder a los contenidos de esta pagina? ¿Valorarías especialmente el desarrollo de una versión móvil o de un diseño responsive? ¿Te resulta especialmente incómodo acceder a la página desde tu dispositivo de preferencia?

La democracia no existe

Escrito a las 1:50 pm
31

IMAGE: Alfonso de Tomás - 123RFEs uno de esos temas a los que vuelvo de manera recurrente, y en esta ocasión por una razón puramente académica: la democracia no existe, y dos profesores norteamericanos, Martin GilensBenjamin Page, se han preocupado de demostrarlo. En un estudio longitudinal, Testing theories of American politics: elites, interest groups, and average citizens, que recopila respuestas a encuestas públicas entre los años 1981 y 2002, correlacionadas con los más de dos mil cambios legislativos que sus respuestas conllevaban y el resultado final de los mismos (si dichos cambios fueron adoptados o no), los autores comprueban claramente que las élites económicas y los grupos organizados de interés tienen un impacto sustancial en la política norteamericana, mientras que las iniciativas populares y el ciudadano medio carece completamente de influencia

Para una versión corta, puedes leerte este artículo en Talking Points Memo, Princeton study: U.S. no longer an actual democracy, o esta fantástica entrevista con uno de los autores en el mismo medio. El estudio está convirtiéndose en una auténtica sensación viral en los Estados Unidos a ciertos niveles.

El resultado de la investigación, en línea con el libro publicado por uno de los autores, Affluence and influence: economic inequality and political power in America, es coherente con trabajos anteriores, y de manera particularmente llamativa con la espectacular presentación de Lawrence Lessig en TED, We the People, and the Republic we must reclaim, enormemente recomendable, que ha sido vista ya más de un millón de veces y que ha inspirado también libros como Lesterland: the corruption of Congress and how to end it, o la reciente iniciativa de recaudar fondos para una Super PAC (PAC, o Political Action Committee, son organizaciones que reúnen fondos para influenciar decisiones políticas) tratando de “terminar con todas las Super PACs”. Si no viste en su momento la presentación de Lessig, es un buen momento para verla:

 

 

La evidencia académica del estudio de Gilens y Page viene a demostrar lo que cualquier ciudadano medio lleva años sospechando: que el resultado de las elecciones es lo de menos, que lo que votes da exactamente lo mismo, y que la democracia es en realidad, desde hace muchos años, una forma de asegurar que siempre gobiernen y tomen decisiones los mismos. Algo sobre lo que he escrito en infinidad de ocasiones, que he podido presenciar directamente en las ocasiones en las que he llegado a tener cierta proximidad a los centros de decisión política en mi país (y sin duda una de las evidencias que me hicieron salir huyendo de esos entornos), y que viene a ponerse de manifiesto mucho más a partir del momento en que la sociedad consigue medios para organizarse en un entorno hiperconectado.

La democracia no existe. Como mucho, se otorga a los ciudadanos la posibilidad de elegir a unos teóricos representantes, en el mejor de los casos elegidos por ellos mismos pero habitualmente ni siquiera eso, que son los que responden a los deseos de una minoría dominante. En la práctica, la mayor parte de los países con unos supuestos altos estándares de calidad democrática son eso: partitocracias o representantes corruptos que ratifican los dictados de una oligarquía.

La tecnología ofrece muchos mejores medios que las corruptas democracias actuales para organizarse como sociedad. Pero la tecnología, obviamente, no es suficiente para conseguir nada. Antes hay que superar muchas otras cosas: la resistencia al cambio, el miedo a un sistema diferente, o la evidencia de que, por mucho que pretendan algunos, los ciudadanos son los mejores guardianes de sus propios intereses, y todas esas ideas sobre que “toman decisiones solamente unos pocos porque son los que están preparados para tomarlas” son lo que son: pura basura, y a la vez germen y evidencia de un elevadísimo nivel de corrupción.

Lo realmente importante de la evolución tecnológica es que terminará siendo capaz de promover la disrupción en la “industria” que nos afecta a todos: la política.

 

This article is also available in English in my Medium page, “Democracy doesn’t exist

La inevitable evolución hacia una internet sin operadoras

Escrito a las 11:48 am
17

FireChatDefinitivamente, la red que tenemos hoy no tiene demasiado que ver con lo que sus creadores originales pensaron para ella. El sueño de una red completamente descentralizada y de imposible control choca con unas operadoras que poseen la mayor parte de la infraestructura, empeñadas además en rentabilizarla privándola de su naturaleza intrínsecamente neutral y revendiendo canales preferenciales al mejor postor, y de gobiernos ávidos por vigilar todas las comunicaciones que tienen lugar en ella.

A partir de un esquema original sencillo y de un protocolo caracterizado por la simple conmutación de paquetes, hemos construido complejos esquemas de seguimiento de los usuarios, sistemas de identificación persistentes y formas de control que harían palidecer al mismísimo George Orwell. De ahí que la idea de volver a descentralizar la red, de redefinir las comunicaciones al margen de las operadoras y los gobiernos, haya estado en la mente de numerosas personas desde hace ya bastantes años.

Con elementos como los routers que tenemos en nuestros hogares, las redes WiFi municipales o diversos tipos de de dispositivos y protocolos, hemos visto circular numerosas ideas alrededor de la posibilidad de construir esa red verdaderamente descentralizada, al margen de todo control.

Pero el desarrollo que ha terminado de impulsar el tema, sin duda, ha sido el de la movilidad: actualmente, millones de personas de todo el mundo llevan en sus bolsos y bolsillos un ordenador con capacidades de comunicación avanzadas, que puede ser utilizado como ladrillo fundamental para construir esa red. Y de hecho, así lo estamos empezando a ver, por primera vez con suficiente entidad como para considerarlo viable: en países como Irak o Taiwan, en el curso de protestas ciudadanas que querían eludir la vigilancia o el bloqueo de la red por parte del gobierno, miles de ciudadanos han estado recurriendo a una aplicación, FireChat, que les permite precisamente eso: conectar dispositivos entre sí y crear una red completamente descentralizada, en la que todos los dispositivos actúan como nodos de una red mesh. Detrás de la aplicación está Open Garden, una compañía finalista del TechCrunch Disrupt de hace dos años en Nueva York que ya ha recibido abundante atención de los medios, y que afirma que la escasez de espectro es simplemente un mito difundido por las operadoras y que lo que tenemos que hacer es reinventar la red usando redes Wifi y nuestros dispositivos móviles.

La empresa ha conseguido atraer nada menos que al francés Xavier Niel, creador del segundo proveedor de acceso y el tercer operador móvil de Francia, Free, y que recientemente se ha embarcado en la puja por hacerse con T-Mobile US, el cuarto operador norteamericano, con más de cincuenta millones de clientes. Rápidamente, hemos visto desatarse todo tipo de especulaciones uniendo el potencial de ambas empresas: la aplicación de Open Garden ha sido hasta el momento descargada unos cinco millones de veces, pero afirma que en zonas con densidad de población elevada, bastaría con un 7% de terminales con ella instalada para poder proporcionar acceso a la web a todos los usuarios sin necesidad de estar conectados a un operador o a una red WiFi directamente, convirtiendo a las operadoras en redundantes.

¿Qué llevaría a que precisamente una operadora protagonizase una especie de “suicidio” proponiendo un servicio que genera su propia pérdida de importancia? Precisamente eso, la auto-disrupción como forma de innovación, el intento de capitalización de un fenómeno que, aunque tú no lo provocases, terminaría por suceder. Poder ser la primera empresa de telecomunicaciones en un mundo post-operadoras. Un futuro para el que indudablemente falta aún bastante tiempo, pero que podríamos estar empezando a vislumbrar.

Llevo escribiendo sobre la idea de redes completamente distribuidas desde el año 2006, y si algo tengo claro es que el incremento de potencia y la progresiva ubicuidad de los terminales móviles es un desencadenante seguro para la aparición de este tipo de redes, primero vinculadas con circunstancias específicas (bloqueos, censura, control, etc.), pero en algún momento, de manera totalmente generalizada. El control de las redes de comunicación es en último término imposible, como bien han demostrado los terroristas de ISIS reabriendo en la red social descentralizada Diaspora los perfiles que Twitter le había cerrado por utilizarlos para difundir sus barbaridades.

Y es en ese aspecto donde radica precisamente la gran discusión: qué va a ocurrir cuando la red sea realmente un medio descentralizado y de uso sencillo que permita publicar y difundir absolutamente cualquier cosa. El desarrollo de la deep web, con su enorme red de nodos y sitios dinámicos accesibles únicamente mediante aplicaciones de anonimización que el usuario medio desconoce, no es más que una evidencia de una deriva que en el largo plazo no puede ser evitada, algo inevitable con lo que va a ser necesario acostumbrarse a vivir. Para bien y para mal.

 

This article is also available in English in my Medium page, “The inevitable move toward an internet without operators

El poder de las analíticas

Escrito a las 5:49 pm
8

IMAGE: Oleksiy Mark - 123RFDos servicios web con públicos objetivo diferentes, Slideshare y Square, se han lanzado a ofrecer analíticas a sus usuarios: en el primer caso, hablamos de usuarios que suben presentaciones para compartirlas con otros, presumiblemente con el fin de incrementar la percepción que se tiene de ellos como expertos en un tema determinado. En el segundo, Square, hablamos de un servicio para tiendas de todo tipo, que puede acceder así a un sistema que les permite extraer información de los datos que proporciona su aplicación de pago.

Las analíticas son un servicio muy interesante: su uso es susceptible de incrementar de manera notable la fidelidad de un usuario, al que simplemente entregamos un resumen razonablemente procesado de su actividad en una aplicación determinada. En el caso de Slideshare, hablamos de entregar al usuario que sube una presentación no simplemente el número de personas que han accedido a ella, sino detalles como la procedencia de esos accesos, la división entre accesos por búsqueda frente a sociales o de enlaces determinados, las páginas en las que esa presentación ha sido incluida, y otros datos que pueden proporcionar al usuario mucha más información sobre el uso de sus materiales. Que las analíticas suponen un gancho importante es algo que la empresa propietaria de Slideshare, LinkedIn, sabe desde hace ya mucho tiempo: es habitual que envíen mensajes a sus usuarios con una pequeña dosis de analíticas, del tipo “tantas personas han accedido a tu perfil, aquí tienes cinco o seis, si quieres verlos todos, hazte socio premium“, esperando incrementar así su porcentaje de conversión de usuarios gratuitos a usuarios de pago. La analítica de LinkedIn es el factor principal que lleva a muchos usuarios a convertirse en usuarios de pago cuando están en el mercado de trabajo: todo se justifica si se trata de tener más información para poder obtener un empleo. De hecho, las prestaciones de analítica en Slideshare eran ofrecidas hasta ahora a usuarios de pago, la decisión ha sido abrirlas también a los usuarios gratuitos.

En el caso de Square, hablamos de establecimientos de todo tipo que deciden sustituir su terminal TPV bancario por una app con un pequeño lector de banda magnética (recientemente, Square ha incorporado también el lector de chip para tarjetas basadas en este método, de uso muy generalizado en muchos países, pero no tanto en los Estados Unidos) y que, a partir de ahora, podrán utilizar para obtener de manera inmediata y visual información de los datos generados por su actividad. Estadísticas por productos, por horas del día, tendencias estacionales, por tipo de cliente (habituales frente a esporádicos), etc. Sin duda, una información muy útil para el control de gestión de pequeños establecimientos que, seguramente, estaban muy lejos de tener la posibilidad de manejar un nivel de análisis de ese tipo.

La realidad es que las analíticas se están convirtiendo en una variable muy interesante para incrementar la fidelización de los clientes y el valor que estos perciben por el servicio. Hablamos de un servicio relativamente sencillo de entregar, que se construye superponiendo una capa de presentación sencilla a los datos que genera la actividad del propio cliente, y que permiten a los usuarios quedarse en el nivel que ellos escoja, prácticamente escoger el nivel de análisis que les dice lo que desean escuchar. De las múltiples magnitudes calculables, cada usuario se queda en un nivel que o bien es capaz de entender, o bien percibe como relativamente gestionable, que puede ser modificado en función de decisiones tomadas por él mismo, y se entrega a la observación de las tendencias reflejadas por ese análisis. Tras un cierto período utilizado para familiarizarse con la dinámica general de su negocio (que conocía perfectamente, pero que puede ver reforzada en función de los datos entregados por el análisis), el usuario se convierte en un “esclavo” de los datos, que escoge sus niveles de sensibilidad como referencia y trata de mantener un registro que le permita controlarlos. Una vez que un usuario se acostumbra a una herramienta analítica, es relativamente poco habitual que la cambie, y más si ello implica perder su histórico de datos.

En un entorno habitualmente analógico, las analíticas representaban una prestación compleja, que alguien debía emplear tiempo y esfuerzo en recopilar y procesar de manera continua. En los entornos digitales, en los que toda la actividad queda recogida en algún tipo de fichero log, las analíticas son una prestación que simplemente hay que programar una vez, y que a partir de ese momento, son generadas de manera automática, con la única complicación de ofrecer módulos adicionales cuando los cambios en la actividad lo requieren.

Visto así, las analíticas suponen una manera relativamente sencilla de ofrecer una prestación premium a los usuarios de pago, o de fidelizarlos de manera general entregándoles algo que, después de todo, obtenemos de manera natural, simplemente procesando los datos de su actividad en nuestra aplicación. Sin duda, iremos viendo ofertas similares en muchos más ámbitos.

 

This article is also available in English in my Medium page, “The power of analytics

Logotipo de Blogestudio Logotipo de Acens