El Blog de Enrique Dans

El kill switch californiano: una solución elegante a un problema real

Escrito a las 1:53 pm
25

IMAGE: Vyacheslav Ryaschikov - 123RFTodos los smartphones salidos de fábrica después del 30 de julio de 2015 a la venta en California deberán llevar incorporado el llamado kill switch, una función que posibilitará su borrado y desconexión total remota e impedirá su vuelta al funcionamiento mediante el procedimiento habitual. La desconexión no podrá ser revertida ni siquiera mediante el reset completo del terminal, que quedará de hecho convertido en inservible salvo que sea introducida una contraseña de desbloqueo. La ley californiana controla el problema a dos niveles: por un lado, exigiendo a los fabricantes el desarrollo e implantación del kill switch, y por otro, prohibiendo activamente la venta de terminales que no los tengan instalados, con multas de hasta $2.500 por dispositivo vendido.

La ley viene a intentar paliar un hecho evidente y conocido: el robo de smartphones se estaba convirtiendo en el auténtico protagonista de las estadísticas de delincuencia en muchas ciudades. Con precios que pueden llegar a los seiscientos o setecientos euros en el caso de algunos modelos, procedimientos sencillos de reset y un activo mercado negro de reventa de terminales, los smartphones se estaban convirtiendo en un objeto de acceso relativamente sencillo para los profesionales del robo al descuido o con violencia, y la tendencia no mostraba signos de remitir.

Por el momento, únicamente la última generación de iPhone con iOS 7 cumple con la totalidad de los requisitos de la ley (borrado remoto, desconexión remota, e imposibilidad de vuelta a la operatividad con un código específico). En el caso de Android, solo lo serán a partir de Android L, esperada a finales de 2014. Las versiones anteriores, en ambos casos, permiten el borrado remoto, pero no la desactivación total que en último término desincentiva el robo.

Las funciones de seguimiento desarrolladas por algunos fabricantes, o la posibilidad de instalar aplicaciones que enviasen datos sobre la geolocalización del dispositivo – o incluso fotos de la persona que lo tenía en ese momento tomadas a través de la cámara frontal – mostraban una utilidad más bien escasa: tratar de recuperar un terminal robado uno mismo es algo completamente desaconsejable y potencialmente muy peligroso, y la policía suele estar muy ocupada como para dedicarse a perseguir ese tipo de delincuencia, que además suele resultar de seguimiento complejo (se precisa una orden para registrar un terminal o para obtener su geolocalización solicitándola a un proveedor de acceso), de manera que las historias de recuperación mediante persecuciones de película, aunque existen son más bien escasas.

Ante estos antecedentes, la posibilidad lógica era obligar a los fabricantes a instalar de fábrica este tipo de función: un desarrollo no especialmente complejo, que elimina la propuesta de valor del robo como tal al destruir el valor de reventa del smartphone. En un entorno en el que los terminales adquieren cada vez un mayor número de funciones, que pueden ir desde la conexión y desconexión de la alarma de casa hasta la gestión de cerraduras, identidad, aplicaciones sensibles o contraseñas de todo tipo, la necesidad de una solución aplicada de manera coordinada era más que clara. De hecho, sistemas similares que permiten la desconexión completa y la imposibilidad de volver a ponerlos en uso de manera estándar han sido los que han conseguido descensos en otras categorías de robos, como los automóviles: entre 1990 y 2013, los robos de automóviles en la ciudad de Nueva York cayeron un 96% gracias al uso de sistemas de inmovilización que impedían el clásico hotwiring o “puente” en el sistema de encendido. En el caso de vehículos de alta gama, el uso de sistemas de seguimiento por geoposicionamiento es también habitual desde hace ya más de una década.

La cuestión resulta interesante cuando pensamos en un futuro en el que cada vez más objetos de uso cotidiano van conectados de alguna manera a un sistema electrónico de comunicaciones: el incentivo para muchos delitos contra la propiedad puede disminuir de manera drástica cuando todos esos dispositivos cuenten con mecanismos similares. Imaginemos un ladrón entrando en un domicilio: muchos de los objetos que típicamente tratan de sustraer son aparatos electrónicos como ordenadores o televisores, que cada vez más cuentan con conexión a internet y pueden ser objeto de una implantación similar.

El futuro, en cualquier caso, permite especular con escenarios bastante interesantes: por un lado, posibles ladrones convertidos en hackers de alto nivel que o bien luchan por desactivar este tipo de sistemas, o centran su actividad directamente en el terreno de lo virtual y no en lo físico, en el robo de datos y no de aparatos. Por otro, la posibilidad de dejar un smartphone u otro aparato electrónico en la mesa de una terraza mientras vamos al baño, y que nadie se plantee su robo porque, sencillamente, es inútil hacerlo.

 

This article is also available in English in my Medium page, “The California kill switch: a smart solution to a real problem

Facebook y los titulares basura: ¡no podrás creer lo que pasó después!!!

Escrito a las 3:24 pm
22

IMAGE: Rangizzz - 123RFFinalmente, Facebook actúa contra el clickbait o titulares basura, cuando ya los timelines de todos tus amigos estaban irremediablemente infestados con ellos, y tomará medidas mediante la modificación de sus algoritmos para reducir el impacto de las noticias que utilizan este tipo de técnicas de captación de atención.

El clickbait es pura y simplemente basura. Una técnica sensacionalista completamente insostenible y absurda equivalente a hablar a gritos o escribir todo en mayúsculas, asentada en unos burdos principios de psicología social. Sin embargo, la técnica funciona: muchas personas hacen clic en ese tipo de titulares, y eso lleva a que los algoritmos sobreestimen esas noticias, dando lugar a un efecto de realimentación. En realidad, los usuarios odian este tipo de noticias que promueven un modelo de gratificación rápida, pero que responden claramente al modelo del spam. El hecho de que hayan proliferado como la peste no las convierte en algo aceptable, en un signo de los tiempos o en una buena cosa, salvo que seas un devoto del “millones de moscas no pueden estar equivocadas“. Si dejas de compartir ese tipo de basura, no estarás perdiendo popularidad: estarás haciendo un favor a tus amigos.

Publicaciones como Upworthy, Upsocl o BuzzFeed, entre muchas otras, han elevado los titulares basura a la categoría de epidemia. Pero indudablemente, ese tipo de técnicas pueden elevar el número de páginas vistas, algo que BuzzFeed ha sido capaz de capitalizar en una inversión de cincuenta millones que sitúan el valor de la compañía en $850 millones, más de tres veces lo que vale, por ejemplo, un símbolo del periodismo como The Washington Post. ¿Quiere decir esto que la compañía vale realmente eso, o que ha encontrado algún tipo de “piedra filosofal”? No, lo único que quiere decir es que ha industrializado la producción de basura, ha traspasado definitivamente todas las barreras entre contenido y publicidad, y que por la razón que sea, a muchas personas les gusta eso. Si el futuro de la información o de la web es esa prostitución absoluta de todo en nombre obtener viralidad al precio que sea, que me vayan borrando.

Tras una dura discusión con BuzzFeed, Facebook ha decidido actuar contra sus técnicas de captación de atención y las de sus muchos imitadores, tratando de introducir restricciones en sus algoritmos que sean capaces de separar ese tipo de historias de las que son verdaderamente interesantes. ¿Logrará ese tipo de actuaciones contra el equivalente en las noticias de la comida basura provocar la caída de las publicaciones que las usan, o se trata simplemente de una manera de reafirmar el control que la red social tiene sobre lo que sus usuarios ven o dejan de ver?

La posición central de Facebook como generador de tráfico podría llevar a pensar que una modificación de sus algoritmos puede tener un efecto notable sobre las páginas vistas y la cuenta de resultados de este tipo de publicaciones, pero lleva por otro  lado a preguntas acerca de la idoneidad de poner a la red social como guardián moral de lo que se considera aceptable o inaceptable en términos de amarillismo y spam. Por el momento, mi opinión es que la decisión de Facebook está perfectamente justificada: el clickbait explota una vulnerabilidad tanto de la naturaleza humana como de los algoritmos de recomendación social, y estaba estropeando claramente la propuesta de valor de la red. Si los usuarios no corrigen sus actitudes con respecto a este tipo de noticias por sí mismos descontando su evidente amarillismo, alguien debe hacerlo por ellos, o la situación final sería no solo insostenible, sino mucho peor para todos. La decisión de Facebook, en realidad, es puro sentido de conservación de su propuesta de valor, la que lleva a sus usuarios a acudir regularmente a la red social para ver noticias que les interesan, no basura variada que trata de captar su atención al precio que sea. En el fondo, la corrección de una anomalía. De las personas o de los algoritmos, pero una anomalía al fin y al cabo.

 

This article is also available in English in my Medium page, “Facebook and junk headlines: you won’t believe what happened next!!

¿Es realmente necesaria una versión móvil?

Escrito a las 4:45 pm
64

Mobile access Aug-2014 - Enriquedans.comLa evolución del acceso a esta página a lo largo de los últimos años refleja una tendencia que no por esperada, resulta bastante sorprendente: el ascenso imparable del consumo desde dispositivos móviles. Hace algo más de un año lo estudié en perspectiva, bastante sorprendido por el 27% que en aquel momento alcanzaba ese tipo de uso en una página que, después de todo, suele tener contenidos relativamente largos, no especialmente orientados a una lectura rápida, pero sobre todo, que carece de una versión móvil o de un diseño responsive. El acceso a esta página desde la pantalla de un smartphone ofrece exactamente la misma disposición de página que desde la de un ordenador, y aunque se puede leer de forma razonable mediante dos toques en la columna de texto para hacer que ésta ocupe la totalidad del ancho de pantalla, no es, indudablemente, la experiencia óptima.

Sin embargo, los accesos desde dispositivos móviles no dejan de subir. El gráfico muestra los porcentajes correspondientes a las últimas cien mil visitas: 57% desde ordenadores, 31% desde smartphones, y 12% desde tablets. En total, 43% de consumo desde dispositivos móviles. Aunque los datos correspondan a agosto, período típicamente vacacional en España, y ello pueda conllevar un uso más habitual de este tipo de dispositivos, no dejan de ser llamativos.

Los datos, en cualquier caso, reflejan una tendencia global: la mayor parte del consumo de contenidos se está desplazando hacia apps móviles, algo que puedo comprobar todos los días cuando consulto mis estadísticas de acceso: tanto en las aplicaciones que permiten un consumo completo de mi contenido, tales como Feedly o Pulse, como en aquellas que suponen simplemente un acceso al mismo, como Facebook, Twitter, Google+, LinkedIn o Flipboard (en orden decreciente de popularidad), el ascenso de las entradas desde smartphones y tablets es igualmente notable. Claramente, el consumo desde dispositivos móviles se está comiendo el mundo, y se convierte en la única categoría cuyos tiempos de consumo parecen crecer de manera imparable.

Por otro lado, se sigue apreciando un incremento de una modalidad de consumo que parece volver a la popularidad: la newsletter. Actualmente, 6.400 personas acceden al contenido de esta página a través del correo electrónico cada día a partir de las siete de la mañana, lo que lleva a fenómenos curiosos dentro del flujo general de atención, y particularmente, a un segundo pico de consumo y comentarios en la página y en redes sociales al día siguiente de haber escrito la entrada. Sigo administrando ese servicio, al igual que el feed de la página, mediante Feedburner, un servicio que nadie sabe en qué momento Google decidirá dejar de ofrecer, así que es posible que tenga que hacer cambios pronto.

La pregunta, claramente, es hasta qué punto es necesario invertir tiempo y esfuerzo en el desarrollo de una versión móvil o un diseño responsive. Obviamente, es mejor tenerla que no tenerla y es algo que está en los planes para un futuro rediseño de la página, pero ¿es realmente tan necesario? El gráfico de arriba me lleva a pensar que no lo es tanto: si acceder a esta página desde un smartphone fuese realmente tan molesto, lo natural sería pensar que ese porcentaje no debería ser tan elevado.

¿Y tú? ¿Cómo sueles acceder a los contenidos de esta pagina? ¿Valorarías especialmente el desarrollo de una versión móvil o de un diseño responsive? ¿Te resulta especialmente incómodo acceder a la página desde tu dispositivo de preferencia?

La democracia no existe

Escrito a las 1:50 pm
32

IMAGE: Alfonso de Tomás - 123RFEs uno de esos temas a los que vuelvo de manera recurrente, y en esta ocasión por una razón puramente académica: la democracia no existe, y dos profesores norteamericanos, Martin GilensBenjamin Page, se han preocupado de demostrarlo. En un estudio longitudinal, Testing theories of American politics: elites, interest groups, and average citizens, que recopila respuestas a encuestas públicas entre los años 1981 y 2002, correlacionadas con los más de dos mil cambios legislativos que sus respuestas conllevaban y el resultado final de los mismos (si dichos cambios fueron adoptados o no), los autores comprueban claramente que las élites económicas y los grupos organizados de interés tienen un impacto sustancial en la política norteamericana, mientras que las iniciativas populares y el ciudadano medio carece completamente de influencia

Para una versión corta, puedes leerte este artículo en Talking Points Memo, Princeton study: U.S. no longer an actual democracy, o esta fantástica entrevista con uno de los autores en el mismo medio. El estudio está convirtiéndose en una auténtica sensación viral en los Estados Unidos a ciertos niveles.

El resultado de la investigación, en línea con el libro publicado por uno de los autores, Affluence and influence: economic inequality and political power in America, es coherente con trabajos anteriores, y de manera particularmente llamativa con la espectacular presentación de Lawrence Lessig en TED, We the People, and the Republic we must reclaim, enormemente recomendable, que ha sido vista ya más de un millón de veces y que ha inspirado también libros como Lesterland: the corruption of Congress and how to end it, o la reciente iniciativa de recaudar fondos para una Super PAC (PAC, o Political Action Committee, son organizaciones que reúnen fondos para influenciar decisiones políticas) tratando de “terminar con todas las Super PACs”. Si no viste en su momento la presentación de Lessig, es un buen momento para verla:

 

 

La evidencia académica del estudio de Gilens y Page viene a demostrar lo que cualquier ciudadano medio lleva años sospechando: que el resultado de las elecciones es lo de menos, que lo que votes da exactamente lo mismo, y que la democracia es en realidad, desde hace muchos años, una forma de asegurar que siempre gobiernen y tomen decisiones los mismos. Algo sobre lo que he escrito en infinidad de ocasiones, que he podido presenciar directamente en las ocasiones en las que he llegado a tener cierta proximidad a los centros de decisión política en mi país (y sin duda una de las evidencias que me hicieron salir huyendo de esos entornos), y que viene a ponerse de manifiesto mucho más a partir del momento en que la sociedad consigue medios para organizarse en un entorno hiperconectado.

La democracia no existe. Como mucho, se otorga a los ciudadanos la posibilidad de elegir a unos teóricos representantes, en el mejor de los casos elegidos por ellos mismos pero habitualmente ni siquiera eso, que son los que responden a los deseos de una minoría dominante. En la práctica, la mayor parte de los países con unos supuestos altos estándares de calidad democrática son eso: partitocracias o representantes corruptos que ratifican los dictados de una oligarquía.

La tecnología ofrece muchos mejores medios que las corruptas democracias actuales para organizarse como sociedad. Pero la tecnología, obviamente, no es suficiente para conseguir nada. Antes hay que superar muchas otras cosas: la resistencia al cambio, el miedo a un sistema diferente, o la evidencia de que, por mucho que pretendan algunos, los ciudadanos son los mejores guardianes de sus propios intereses, y todas esas ideas sobre que “toman decisiones solamente unos pocos porque son los que están preparados para tomarlas” son lo que son: pura basura, y a la vez germen y evidencia de un elevadísimo nivel de corrupción.

Lo realmente importante de la evolución tecnológica es que terminará siendo capaz de promover la disrupción en la “industria” que nos afecta a todos: la política.

 

This article is also available in English in my Medium page, “Democracy doesn’t exist

La inevitable evolución hacia una internet sin operadoras

Escrito a las 11:48 am
17

FireChatDefinitivamente, la red que tenemos hoy no tiene demasiado que ver con lo que sus creadores originales pensaron para ella. El sueño de una red completamente descentralizada y de imposible control choca con unas operadoras que poseen la mayor parte de la infraestructura, empeñadas además en rentabilizarla privándola de su naturaleza intrínsecamente neutral y revendiendo canales preferenciales al mejor postor, y de gobiernos ávidos por vigilar todas las comunicaciones que tienen lugar en ella.

A partir de un esquema original sencillo y de un protocolo caracterizado por la simple conmutación de paquetes, hemos construido complejos esquemas de seguimiento de los usuarios, sistemas de identificación persistentes y formas de control que harían palidecer al mismísimo George Orwell. De ahí que la idea de volver a descentralizar la red, de redefinir las comunicaciones al margen de las operadoras y los gobiernos, haya estado en la mente de numerosas personas desde hace ya bastantes años.

Con elementos como los routers que tenemos en nuestros hogares, las redes WiFi municipales o diversos tipos de de dispositivos y protocolos, hemos visto circular numerosas ideas alrededor de la posibilidad de construir esa red verdaderamente descentralizada, al margen de todo control.

Pero el desarrollo que ha terminado de impulsar el tema, sin duda, ha sido el de la movilidad: actualmente, millones de personas de todo el mundo llevan en sus bolsos y bolsillos un ordenador con capacidades de comunicación avanzadas, que puede ser utilizado como ladrillo fundamental para construir esa red. Y de hecho, así lo estamos empezando a ver, por primera vez con suficiente entidad como para considerarlo viable: en países como Irak o Taiwan, en el curso de protestas ciudadanas que querían eludir la vigilancia o el bloqueo de la red por parte del gobierno, miles de ciudadanos han estado recurriendo a una aplicación, FireChat, que les permite precisamente eso: conectar dispositivos entre sí y crear una red completamente descentralizada, en la que todos los dispositivos actúan como nodos de una red mesh. Detrás de la aplicación está Open Garden, una compañía finalista del TechCrunch Disrupt de hace dos años en Nueva York que ya ha recibido abundante atención de los medios, y que afirma que la escasez de espectro es simplemente un mito difundido por las operadoras y que lo que tenemos que hacer es reinventar la red usando redes Wifi y nuestros dispositivos móviles.

La empresa ha conseguido atraer nada menos que al francés Xavier Niel, creador del segundo proveedor de acceso y el tercer operador móvil de Francia, Free, y que recientemente se ha embarcado en la puja por hacerse con T-Mobile US, el cuarto operador norteamericano, con más de cincuenta millones de clientes. Rápidamente, hemos visto desatarse todo tipo de especulaciones uniendo el potencial de ambas empresas: la aplicación de Open Garden ha sido hasta el momento descargada unos cinco millones de veces, pero afirma que en zonas con densidad de población elevada, bastaría con un 7% de terminales con ella instalada para poder proporcionar acceso a la web a todos los usuarios sin necesidad de estar conectados a un operador o a una red WiFi directamente, convirtiendo a las operadoras en redundantes.

¿Qué llevaría a que precisamente una operadora protagonizase una especie de “suicidio” proponiendo un servicio que genera su propia pérdida de importancia? Precisamente eso, la auto-disrupción como forma de innovación, el intento de capitalización de un fenómeno que, aunque tú no lo provocases, terminaría por suceder. Poder ser la primera empresa de telecomunicaciones en un mundo post-operadoras. Un futuro para el que indudablemente falta aún bastante tiempo, pero que podríamos estar empezando a vislumbrar.

Llevo escribiendo sobre la idea de redes completamente distribuidas desde el año 2006, y si algo tengo claro es que el incremento de potencia y la progresiva ubicuidad de los terminales móviles es un desencadenante seguro para la aparición de este tipo de redes, primero vinculadas con circunstancias específicas (bloqueos, censura, control, etc.), pero en algún momento, de manera totalmente generalizada. El control de las redes de comunicación es en último término imposible, como bien han demostrado los terroristas de ISIS reabriendo en la red social descentralizada Diaspora los perfiles que Twitter le había cerrado por utilizarlos para difundir sus barbaridades.

Y es en ese aspecto donde radica precisamente la gran discusión: qué va a ocurrir cuando la red sea realmente un medio descentralizado y de uso sencillo que permita publicar y difundir absolutamente cualquier cosa. El desarrollo de la deep web, con su enorme red de nodos y sitios dinámicos accesibles únicamente mediante aplicaciones de anonimización que el usuario medio desconoce, no es más que una evidencia de una deriva que en el largo plazo no puede ser evitada, algo inevitable con lo que va a ser necesario acostumbrarse a vivir. Para bien y para mal.

 

This article is also available in English in my Medium page, “The inevitable move toward an internet without operators

El poder de las analíticas

Escrito a las 5:49 pm
8

IMAGE: Oleksiy Mark - 123RFDos servicios web con públicos objetivo diferentes, Slideshare y Square, se han lanzado a ofrecer analíticas a sus usuarios: en el primer caso, hablamos de usuarios que suben presentaciones para compartirlas con otros, presumiblemente con el fin de incrementar la percepción que se tiene de ellos como expertos en un tema determinado. En el segundo, Square, hablamos de un servicio para tiendas de todo tipo, que puede acceder así a un sistema que les permite extraer información de los datos que proporciona su aplicación de pago.

Las analíticas son un servicio muy interesante: su uso es susceptible de incrementar de manera notable la fidelidad de un usuario, al que simplemente entregamos un resumen razonablemente procesado de su actividad en una aplicación determinada. En el caso de Slideshare, hablamos de entregar al usuario que sube una presentación no simplemente el número de personas que han accedido a ella, sino detalles como la procedencia de esos accesos, la división entre accesos por búsqueda frente a sociales o de enlaces determinados, las páginas en las que esa presentación ha sido incluida, y otros datos que pueden proporcionar al usuario mucha más información sobre el uso de sus materiales. Que las analíticas suponen un gancho importante es algo que la empresa propietaria de Slideshare, LinkedIn, sabe desde hace ya mucho tiempo: es habitual que envíen mensajes a sus usuarios con una pequeña dosis de analíticas, del tipo “tantas personas han accedido a tu perfil, aquí tienes cinco o seis, si quieres verlos todos, hazte socio premium“, esperando incrementar así su porcentaje de conversión de usuarios gratuitos a usuarios de pago. La analítica de LinkedIn es el factor principal que lleva a muchos usuarios a convertirse en usuarios de pago cuando están en el mercado de trabajo: todo se justifica si se trata de tener más información para poder obtener un empleo. De hecho, las prestaciones de analítica en Slideshare eran ofrecidas hasta ahora a usuarios de pago, la decisión ha sido abrirlas también a los usuarios gratuitos.

En el caso de Square, hablamos de establecimientos de todo tipo que deciden sustituir su terminal TPV bancario por una app con un pequeño lector de banda magnética (recientemente, Square ha incorporado también el lector de chip para tarjetas basadas en este método, de uso muy generalizado en muchos países, pero no tanto en los Estados Unidos) y que, a partir de ahora, podrán utilizar para obtener de manera inmediata y visual información de los datos generados por su actividad. Estadísticas por productos, por horas del día, tendencias estacionales, por tipo de cliente (habituales frente a esporádicos), etc. Sin duda, una información muy útil para el control de gestión de pequeños establecimientos que, seguramente, estaban muy lejos de tener la posibilidad de manejar un nivel de análisis de ese tipo.

La realidad es que las analíticas se están convirtiendo en una variable muy interesante para incrementar la fidelización de los clientes y el valor que estos perciben por el servicio. Hablamos de un servicio relativamente sencillo de entregar, que se construye superponiendo una capa de presentación sencilla a los datos que genera la actividad del propio cliente, y que permiten a los usuarios quedarse en el nivel que ellos escoja, prácticamente escoger el nivel de análisis que les dice lo que desean escuchar. De las múltiples magnitudes calculables, cada usuario se queda en un nivel que o bien es capaz de entender, o bien percibe como relativamente gestionable, que puede ser modificado en función de decisiones tomadas por él mismo, y se entrega a la observación de las tendencias reflejadas por ese análisis. Tras un cierto período utilizado para familiarizarse con la dinámica general de su negocio (que conocía perfectamente, pero que puede ver reforzada en función de los datos entregados por el análisis), el usuario se convierte en un “esclavo” de los datos, que escoge sus niveles de sensibilidad como referencia y trata de mantener un registro que le permita controlarlos. Una vez que un usuario se acostumbra a una herramienta analítica, es relativamente poco habitual que la cambie, y más si ello implica perder su histórico de datos.

En un entorno habitualmente analógico, las analíticas representaban una prestación compleja, que alguien debía emplear tiempo y esfuerzo en recopilar y procesar de manera continua. En los entornos digitales, en los que toda la actividad queda recogida en algún tipo de fichero log, las analíticas son una prestación que simplemente hay que programar una vez, y que a partir de ese momento, son generadas de manera automática, con la única complicación de ofrecer módulos adicionales cuando los cambios en la actividad lo requieren.

Visto así, las analíticas suponen una manera relativamente sencilla de ofrecer una prestación premium a los usuarios de pago, o de fidelizarlos de manera general entregándoles algo que, después de todo, obtenemos de manera natural, simplemente procesando los datos de su actividad en nuestra aplicación. Sin duda, iremos viendo ofertas similares en muchos más ámbitos.

 

This article is also available in English in my Medium page, “The power of analytics

De llevar personas, a llevar cosas: Uber ensaya conceptos

Escrito a las 11:47 am
10

Uber Corner Store

Uber anuncia el lanzamiento de un servicio en pruebas – por el momento restringido a algunas áreas de Washington DC – llamado Corner Store, que permite que los usuarios encarguen a través de la app en su smartphone una serie de productos típicos de tienda de conveniencia (desde medicamentos para la alergia hasta preservativos, pasando por pañales, compresas, jabón, desodorante, pilas, papel higiénico, cuchillas de afeitar, etc. ), con precios también típicos de este tipo de establecimientos, y que reciben rápidamente a través de un conductor que se desplaza hasta su casa. A la conveniencia de recibir el producto rápidamente, se añade la de la geolocalización y la de poder pagar directamente a través de la misma app. El envío no conlleva un coste adicional, está incluido en el precio de los productos.

El servicio trata de capitalizar en la red de conductores asociados a Uber para aprovechar su capacidad ociosa, dando lugar a un servicio que los taxis convencionales no cubren pero que los conductores de Uber pueden estar interesados en proporcionar, y que convierte a la app de Uber en un punto central de intercambio de servicios: del mismo modo que puedes llegar a un sitio, encontrarte con tu conductor, pagarle a través de la app y darle una propina en forma de evaluación positiva, puedes utilizar esa misma app para encargar, pagar y que te lleven a casa algo que necesitas rápidamente. A la hora de competir con apps similares centradas únicamente en la provisión de servicio de taxi convencional, este tipo de planteamientos extendidos puede probarse estratégicamente muy importante.

En Nueva York, Uber está también evaluando otro servicio de mensajería urgente, Uber Rush, igualmente a través de su app, pero en este caso utilizando mensajeros en bicicleta, con un precio de entre $11 y $26 en función de las zonas, más un dólar extra de contribución a un fondo de compensación para accidentes de mensajeros en bicicleta. La idea, por lo que se ve, es lanzar servicios que convierten a la app en un punto central de provisión de servicios logísticos, sea mover personas o mover objetos, servicios caracterizados por una escasa fricción y por un elevado nivel de conveniencia. Una vez has desarrollado una forma cómoda de que las personas encarguen, paguen y evalúen este tipo de servicios sin soltar su smartphone, cabe pensar que lo razonable es utilizarlo para cuantas más cosas, mejor.

Cuando se lanzó Uber, muchos pensaron que su valor estaba justificado por lo que suponía irrumpir en una industria como la del taxi, con muy escaso nivel de organización global y protagonizada fundamentalmente por autónomos o por compañías relativamente pequeñas, y poner en ella un mayor nivel de estructura y de conveniencia para el cliente. En los planes de futuro de Uber, sin embargo, parece que eso juega únicamente un pequeño papel, y que los objetivos van mucho más allá, apuntando incluso a toda la industria de la logística capilar. Que además, dicho sea de paso, podría acabar llevándose a cabo no precisamente por conductores, sino de manera completamente autónoma

 

This article is also available in English in my Medium page, “Uber: from delivering people to delivering goods

Secret en Brasil: decisiones judiciales y sus consecuencias prácticas

Escrito a las 12:27 pm
16

Secret (logo)Un juez brasileño parece estar barajando la ocurrencia de exigir a Apple y a Google que eliminen de sus tiendas de aplicaciones antes de diez días la app Secret, y a Microsoft que elimine de la suya el cliente Cryptic, utilizado por los usuarios de Windows Phone para acceder a esa misma app. Además, exige que borren remotamente dichas apps de los terminales en los que hayan sido instaladas en Brasil. El no cumplimiento de la sentencia acarrearía una multa de veinte mil reales diarios, unos 6.700 euros. La noticia fue publicada originalmente en portugués en Estadão, yo la vi a través de 9to5Mac.

El precepto legal con el que el juez pretende sostener su decisión es que la Constitución brasileña no permite el anonimato. Una norma tan de peso como pueden ser muchas otras dictadas en función de las leyes de cada país, y que reflejan la dificultad de competir con productos en una red que define un mercado intrínsecamente global, pero teniendo que acatar todas las leyes país por país.

Pero más allá de la discusión legal sobre el acatamiento de las leyes de aquellos países en los que se opera, me parece mucho más interesante especular sobre los efectos potenciales de una prohibición como la barajada por el juez brasileño. Sin duda, el uso de Secret puede dar lugar a situaciones en las que determinadas personas pueden verse difamadas de manera parcialmente anónima – siempre podrían reclamar por vía judicial a la aplicación que entregase los datos de un usuario determinado, que se dio de alta con una identidad que puede ser rastreada – y ese anonimato es susceptible de generar violaciones de los derechos de los implicados.

Pero la pregunta aquí es hasta qué punto una hipotética prohibición de la difusión de la app en un país tendría como resultado algún tipo de solución, total o parcial, al problema planteado. ¿Cuáles serían los efectos de que la app dejase de estar disponible en las tiendas de aplicaciones y desapareciese además de los smartphones de los usuarios que la tenían instalada? Hablamos de un ecosistema en el que la instalación de apps puede llevarse a cabo bien a través de las tiendas de aplicaciones, o directamente por el propio usuario mediante la ejecución de un programa. La instalación de un programa al margen de las tiendas de aplicaciones es un proceso sencillo que no requiere ningún tipo de conocimiento especializado: basta con tener acceso al archivo de instalación, que puede encontrarse mediante una simple búsqueda. En el caso de Android, una simple búsqueda del nombre de una aplicación como “Secret” unido a la extensión “apk” permite acceder a varios enlaces en los que se distribuye el fichero de instalación de la aplicación en varias de sus versiones.

Efectivamente, retirar una app de una tienda de aplicaciones de un país determinado no tiene ninguna complicación técnica, como tampoco lo tiene el llevar a cabo una desinstalación remota en los terminales de los usuarios. Es un procedimiento que se ha hecho en otras ocasiones, habitualmente con apps peligrosas o que incumplían sus términos de servicio. ¿Pero qué esperamos que haga un usuario que ve cómo una aplicación que usaba de manera más o menos habitual desaparece súbitamente de su terminal? Tras informarse mínimamente, lo normal será que el usuario se haga con la aplicación mediante el procedimiento citado, y continúe con su uso. La prohibición, además, traería consigo un importante nivel de ruido mediático y daría sin duda lugar a una gran popularización de la app, lo que terminaría por generar un efecto contrario al inicialmente deseado. En lugar de proteger a los usuarios de posibles actos de difamación, estaríamos generando una red aún mayor de usuarios de una app, y la habríamos además llevado a un entorno sujeto a un control mucho más complejo. ¿Qué sería lo siguiente? ¿Registrar los terminales de los usuarios para ver si tienen instalada la app prohibida?

Obviamente, hablamos de un problema complejo, pero también de la necesidad de ejercitar el sentido común y, sobre todo, el sentido de la medida. ¿Es técnicamente posible impedir completamente en un país el funcionamiento de una app como Secret, que permite difundir mensajes anónimos en una red de contactos? La respuesta, me temo, es negativa. A partir de ahí, la mejor defensa de los usuarios será tratar de obtener medios adecuados que permitan reclamar ante una eventual vulneración de sus derechos, pero no actuar como si la app no existiese o se pudiese efectivamente prohibir.

Como en muchos otros casos anteriores, la responsable del problema no es la herramienta, sino los usuarios y el uso que hacen de la misma, por lo que tratar de prohibir la herramienta en sí suele ser una aproximación errónea. Y en este caso, no solo errónea, sin además, contraproducente. ¿Debe un juez de aplicar la ley sin más, o debería considerar a la hora de hacerlo las más que seguras consecuencias que seguirían a dicha aplicación?

 

This article is also available in English in my Medium page, “Brazil tried to ban Secret: when national laws come up against internet reality

Economistas que hacen mal su trabajo

Escrito a las 10:34 pm
10

IMAGE: Kheng Guan Toh - 123RFUn gran artículo de Joel Mokyr, What today’s economic gloomsayers are missing, y una fantástica interpretación de Mike Masnick, Economists don’t understand the information age, so their claims about today’s economy are a joke, cuya tesis central es que los economistas convencionales están completamente perdidos cuando se trata de calcular el valor generado por la economía de la información.

La tesis me recuerda poderosamente las apreciaciones de Erik Brynjolfsson sobre la paradoja de la productividad, aquella teoría de Robert Solow que afirmaba, no en un artículo académico, sino en la crítica de un libro en el New York Times, que “veía ordenadores en todas partes, excepto en las estadísticas de productividad”.

Obviamente, la tecnología generaba enormes ganancias en productividad, y el problema era que el pobre Robert Solow, simplemente, no las podía medir con los métodos convencionales: por un lado, aparecían ganancias en fuentes no tradicionales de generación de valor como incrementos de calidad, de servicio al cliente, mejoras en flexibilidad productiva, etc. que las métricas tradicionales no eran capaces de medir. Por otro, se producía una redistribución de la riqueza que, al ser tomada en agregado, compensaba ganadores con perdedores y ocultaba los efectos. En tercer lugar, existían desfases temporales derivados del proceso de adopción tecnológica y de los factores necesarios para aprovechar esa tecnología, como el aprendizaje. Y en cuarto, problemas derivados de la gestión de la tecnología, que al ser llevada a cabo por directivos no entrenados o que incluso tenían prevenciones ante su incorporación, no permitían ponerla en valor.

La paradoja de la productividad fue, en realidad, un proceso que se curó con el tiempo: hoy sería imposible explicarnos la economía sin el aporte de las tecnologías de información. Sin embargo, como bien apunta el artículo de Mokyr, muchos economistas siguen haciendo mal su trabajo cuando no son capaces de entender la economía de la información. ¿Qué factores “se pierden” esos economistas?

Por un lado, un problema de medida: el uso de una métrica deficiente como el producto interior bruto, incapaz de recoger el valor generado por productos que son gratuitos para el usuario, y que en las estadísticas de productividad aparecen como aparentemente “carentes de valor”. Muchas de las ganancias generadas por la economía de la información son simplemente ignoradas por el PIB, no aparecen en ningún sitio, y nos llevan a comparaciones y apreciaciones sobre el crecimiento o decrecimiento de la economía que, sencillamente, no tienen ningún sentido. Por otro lado, el hecho de que la tecnología tienda a producir progresivamente cosas que son a la vez mejores y más baratas: un ordenador el doble de potente por la mitad de precio aparece en las estadísticas como un valor económico de sencillamente la mitad, no como cuatro veces más – que es el valor que realmente aporta.

El ejemplo utilizado por Mokyr resulta especialmente ilustrativo: si los avances en tecnologías que permiten el teletrabajo o los coches sin conductor fuesen capaces de reducir el tiempo que los ciudadanos de un país emplean en los desplazamientos a la mitad, ese factor no aparecería más que indirectamente en las estadísticas de productividad y en el PIB, aunque estaría contribuyendo enormemente a la economía, a la felicidad y a la productividad de todos esos ciudadanos, lo que convierte a la tecnología no en nuestro enemigo, sino en nuestra mayor esperanza.

Mientras los economistas no se apliquen a entender los elementos diferenciales de la economía de la información y las facetas en las que tiene lugar su aporte de valor, estarán, sencillamente, haciendo mal su trabajo, midiendo mal, y muy posiblemente, dando argumentos a una toma de decisiones inadecuada.

 

This article is also available in English in my Medium page, “The economists who are doing their job badly

Sobre mi gestión de contenidos

Escrito a las 11:54 am
19

IMAGE: Elena Suslova - 123RFUn comentario en una entrada reciente me preguntaba sobre los sistemas que utilizo para la gestión del contenido que genero. Un mínimo de una entrada al día durante más de once años, unida a artículos y columnas habituales en prensa, más referencias, citas, entrevistas, etc. suponen, efectivamente, mucho contenido en el que poner orden, un problema que se acentúa además con la necesidad de poder recuperar dicho contenido no solo para poder construir sobre él (saber qué dije sobre un tema en un momento determinado), sino también para ser capaz de utilizar ese contenido de manera mínimamente eficiente en mi ocupación principal, las clases y conferencias.

La base de la gestión del contenido que genero es la propia página. Utilizo esta página no solo para publicar mi contenido, sino también como repositorio ordenado de información. La práctica totalidad del contenido que genero, sea para su publicación en la propia página o para periódicos, revistas, libros, etc. es referenciada en una entrada aquí. Eso incluye artículos, referencias, entrevistas escritas, etc. y, en menor medida, entrevistas y apariciones en radio o en televisión. La idea no solo es darle una posible difusión adicional, sino fundamentalmente, ser capaz de encontrarlo cuando lo necesito. De hecho, la gestión del contenido propio sigue siendo una de las principales razones por las que suelo recomendar a mis alumnos tener una página personal.

Para ello, me apoyo en los tres sistemas de gestión de contenidos que me proporciona WordPress: la búsqueda por tags o etiquetas, la búsqueda cronológica, y la búsqueda por texto libre. Cuando quiero localizar un contenido determinado en mi página, el primer lugar al que suelo acudir es la página de Temas. Se alimenta de la clasificación que hago del contenido cada vez que termino una entrada, y aunque contiene numerosos errores (inconsistencias en el etiquetado, la mayoría de las cuales provienen de sistemas anteriores que obligaban a separar palabras con guiones, etc. y cuya revisión tengo pendiente desde hace años), responde bastante bien para la mayor parte de las búsquedas. Es un sistema de palabras clave, en inglés (independientemente de que el contenido original esté escrito en español o en inglés, yo clasifico siempre con etiquetas en inglés), en la que incluyo siempre los nombres de las personas y empresas mencionadas en el contenido, la temática en varios niveles de concreción, y algunos términos relacionados que me permitan vincularlo con líneas habituales de investigación. Típicamente, entre cinco y diez etiquetas por entrada.

La página de etiquetas ofrece una panorámica bastante razonable de mis intereses, y un sistema bastante eficiente de recuperación de contenidos. Haciendo clic sobre una etiqueta, apareces en la página correspondiente que recoge todas las entradas de esa categoría; si pasas el ratón por encima de una etiqueta, puedes ver el número aproximado de entradas en las que aparece: destacan empresas como Google (500 entradas), Microsoft (327), Apple (243), Twitter (204) o Facebook (192), pero también aparece, lógicamente, mi propia empresa, IE Business School (un total de 173 ocasiones repartidas entre las etiquetas “IE Business School”, “Instituto de Empresa” o “institutodeempresa”), medios como Expansión en los que llevo años escribiendo habitualmente (222 menciones) o en los que escribí o escribo ocasionalmente (El País, 78 menciones; Cinco Días, 72; Libertad Digital, 69; El Mundo, 53; Público, 34; o ABC, 26; entre muchos otros), o genéricos como “entrevista” (incorrectamente separado entre “interview”, con 81 menciones, e “interviews”, con 106). Por temáticas, las etiquetas más destacadas pueden ser cosas como la meta-etiqueta blogging (285 menciones), music (243), politics (279), copyright (271), intellectual property (250), advertising (200), social networks (200), P2P (134), Network Neutrality (96), newspapers (86), innovation (77), o marketing (70).

Además del sistema de etiquetado, utilizo también el archivo cronológico cuando tengo clara la ubicación temporal de una entrada, y para algunos temas puntuales, la búsqueda en texto libre. No tengo reglas de ningún tipo para titular mis entradas, prefiero poner el título que me apetece o me resulta sugerente en un momento dado a tener que aceptar la dictadura de la descriptiva o del SEO, lo que lleva a que, en muchas ocasiones, si recuerdo un título determinado, termine antes buscándolo ahí, o incluso en Google con el parámetro site:enriquedans.com.

Desde hace años, trato de incluir algún tipo de copia de respaldo para los contenidos que publico en otros sitios. En la mayor parte de los casos, se trata de un simple fichero pdf almacenado en mi propio servidor que me permita seguir accediendo al contenido aunque este desaparezca del lugar original donde fue publicado. Ya son bastantes experiencias de publicaciones supuestamente serias que han ido cambiando de criterio en cuanto al mantenimiento de sus archivos, o que simplemente han desaparecido. Los artículos y citas anteriores al blog o de su primera época, los aparecidos entre 1996 y mediados de 2005, los tengo recogidos en esta otra página. Los artículos académicos, en Academia.eduGoogle Scholar o en mi curriculum académico.

Finalmente, y como sistema de respaldo al que rara vez necesito recurrir, mantengo copia en disco duro y en backup de los artículos en versión no maquetada (tal y como los envié originalmente), en pdf, y de las ilustraciones que utilizo en las entradas del blog (vienen fantásticamente bien para clases y conferencias).

En el fondo, un sistema de gestión de contenidos que dista mucho de ser perfecto, pero que sirve perfectamente para su principal usuario, que asumo que tiendo a ser yo mismo (sea porque trato de ser rentable conmigo mismo y reutilizar mi esfuerzo de creación todo lo que puedo, o porque tengo mis dudas de que las cosas que escribo interesen a alguien más que a mí mismo :-) Empecé cuando IE Business School comenzó a solicitar a sus profesores una memoria anual de producción académica, con el razonamiento de “cuando me lo pidan, les contestaré que está todo ahí, en el blog”, algo que nunca funcionó, y siguió como forma de procurarme un sistema de archivo personal, que según veo, parece algo más metódico y consistente que los que suelen utilizar otros autores. Si además resulta útil a alguien… mejor todavía.

Logotipo de Blogestudio Logotipo de Acens