La dudosa ética de hacer experimentos psicológicos con tus usuarios

IMAGE: Slaven Devic - 123RFA través de una publicación en un journal científico, titulada Experimental evidence of massive-scale emotional contagion through social networks, hemos sabido que al menos un investigador del Core Data Scientist Team de Facebook, Adam D. I. Kramer, ha participado en un experimento que muchos considerarán aterrador: la manipulación del estado de ánimo de los usuarios de Facebook mediante el filtrado intencionado de las actualizaciones en su muro.

La situación es la siguiente: durante una semana en enero de 2012, un total de casi setecientos mil usuarios de Facebook fueron, sin mediar consentimiento alguno de su parte, sometidos a un experimento psicológico: las actualizaciones de sus amigos que aparecían en sus muros fueron intencionadamente filtradas para mostrar de manera mayoritaria estados en los que predominaban palabras o connotaciones positivas, mientras otro grupo lo fue con palabras o connotaciones fundamentalmente negativas. Al cabo de la semana, se evaluó hasta qué punto esos usuarios tenían una probabilidad más elevada de compartir actualizaciones con tonos respectivamente positivos o negativos.

El experimento es sencillo: comprobar el nivel de influencia que la información compartida en su entorno social virtual ejerce sobre el estado de ánimo. Tan sencillo como esto:

Emotional states can be transferred to others via emotional contagion, leading them to experience the same emotions as those around them (…) This research demonstrated that (i) emotional contagion occurs via text-based computer-mediated communication; (ii) contagion of psychological and physiological qualities has been suggested based on correlational data for social networks generally; and (iii) people’s emotional expressions on Facebook predict friends’ emotional expressions, even days later.

Pero indudablemente, y dicho por la propia editora de la revista que aprobó su publicación, resulta también profundamente inquietante. Jugar a programador de estados de ánimo, con personas. Setecientas mil personas manipuladas durante una semana para lograr que su estado de ánimo tuviese un componente más negativo o positivo. Algunos de los afectados podrían, posiblemente, ayudados por un calendario y por su propia timeline en Facebook, tratar de recordar aquella semana de enero de 2012, tratar de asociarla con otros eventos que tuvieron lugar en su vida personal, y pensar que, en efecto, estaban siendo condicionados por Facebook, que la red estaba tratando de influir en su estado de ánimo.

Algo que, por otro lado, nos permite imaginar infinitas posibilidades más: ¿por qué no generar artificialmente estados de ánimo de determinados tipos entre los usuarios para, por ejemplo, hacer que tengan una mayor propensión a adquirir productos o servicios, a contratar un seguro de vida, a irse de viaje? ¿Para cuándo un estudio que demuestre que si saturamos el muro de un usuario con actualizaciones sobre viajes de todos sus amigos, conseguimos que se vaya corriendo a contratar un viaje él mismo? Y ya que estamos, ¿le ponemos precio y lo comercializamos a las aerolíneas y cadenas de hoteles? ¿Por qué no generar estados de ánimo par tratar de influir en los resultados de unas elecciones? ¿Cómo puede afectar un estado de ánimo predominantemente positivo o negativo en los ciudadanos que se acercan a votar a un colegio electoral?

Con este experimento, Facebook cruza una línea roja que muchos, sin duda, van a considerar completamente inaceptable: la de la experimentación con sus propios usuarios. Todas las empresas que reciben datos de sus usuarios analizan esos datos, y habitualmente, además, dan difusión a muchos de sus hallazgos. Analizar datos producidos de manera espontánea o generados por un factor externo independiente es algo que a muy pocos va a molestar: que se pueda ver hasta qué punto ha influenciado lo compartido por los usuarios en una red una noticia buena o mala, o incluso cuestiones directas y personales. Si este experimento hubiese tenido lugar seleccionando usuarios que de manera natural estuviesen sometidos a una mayoría de actualizaciones positivas o negativas en su muro, no tendría personalmente ningún problema con él. Es el componente de manipulación, de filtrado voluntario, el que me incomoda profundamente, el que me lleva a ver a Facebook como un enorme manipulador, como la empresa que tiene una puerta de entrada a nuestro cerebro, que puede llegar a ser capaz de programarnos, de producir un efecto en nuestro estado de ánimo… y lo que es mucho peor, que no solo tiene esa facultad, sino que además va y la utiliza.

Tras una constatación así, Facebook merecería que todos sus usuarios le diesen la espalda. No es de recibo que por el simple hecho de utilizar una plataforma para compartir voluntariamente determinados aspectos de tu vida con tus amigos, te encuentres de repente y sin tu conocimiento sometido a un experimento manipulador de tu estado de ánimo. Es completamente inaceptable, y debería determinar no solo que toda la cadena de mando que aprobó este experimento fuese inmediatamente despedida, sino que se llevase a cabo una rigurosísima auditoría que tratase de determinar qué otros experimentos han sido realizados por la compañía, como quién audita a una especie de Dr. Mengele. Y si eso lo pienso yo, que en principio soy un científico inclinado a justificar la investigación y una persona que tiende a tener una opinión generalmente positiva sobre Facebook y sobre otras empresas que intentan plantear herramientas innovadoras, no quiero ni pensar cómo se sentirán todos aquellos que de manera natural tienden a tener una visión pesimista o escéptica.

El experimento de Facebook incide en esas percepciones: ahora, cualquier usuario de la red social tiene todo el derecho del mundo a imaginarse manipulado, a pensar que está participando en otro experimento, a verse como un conejillo de indias con su cerebro en manos de otro científico loco. Completamente inaceptable y gravísimo, independientemente de lo que diga la legalidad y los términos de servicio de la compañía. Quien haya autorizado o participado en esto, tiene un serio problema de valores. Y de ética.

 

ACTUALIZACIÓN: ya hay reacciones, desde una disculpa/justificación del autor del estudio en Facebook, hasta apoyos al concepto de A/B testing. Ninguna de ellas me convence por el momento. Sigo pensando que estuvo mal, y que no es en modo alguno justificable.

 

(This article is also available in English in my Medium page, “Facebook crosses the line into mind control territory“)

29 comentarios

  • #001
    Felix Maocho - 29 junio 2014 - 13:37

    Tienes toda la razón , pero por desgracia la manipulación se da en todos los órdenes de la vida y en todos los ambientes. He vivido con Franco, que ponía el 1 de Mayo un festival de Coro y Danzas en el Bernabeu, para tapar que era el Día del Trabajo, y eso era manipulación.

    Cambio el Régimen, pero no las maneras y José Blanco, calentó los motores e intentó provocar en un día de puente, una huelga de controladores y aunque no lo consiguió, cerró el espacio aéreo y colocó al país en Estado de Alarma y acusó falsamente a los controladores para tapar la privatización de AENA y eso es manipulación.

    Cambio el partido en el poder y la transición de la corona. se hizo de tapadillo en día festivo en Madrid y cuando se calculaba que la gente estaría viendo los Mundiales y preparando las maletas para irse de vacaciones y eso es manipulación.

    Sinceramente lo de Facebook, me parece manipulación ciertamente, pero no más que la que puede hacer Avecrem, cuando asegura que hace buen caldo, o Media Mark cuando te intenta convencer de que les compres porque no eres tonto.

    Los ejemplos que he puesto son MANIPULACION con mayúscula y son solo la punta del iceberg, pues son las que he detectado. que vaya a saber cuantas hay que ni siquiera los he advierto y esas si es la autentica MANIPULACION

  • #002
    Garepubaro - 29 junio 2014 - 13:48

    los sicologos de Facebook y otros sabe que la gente hoy no tiene religion, sino que el dios consumo, el templo comercial y su profeta internet, asi que se puede hacer algo ir montando unas creencias nuevas cada vez en niveles superiores. Quiere decir que para una almeja Mozart son niveles superiores en los que no esta la almeja. Del mismo modo hay escenarios, niveles superiores en los que hay otros espiritus que no son humanos, y luego otros aun mas superiores donde no hay nadie, son tan elevados que estan deshabitados … Facebook entraria a crear nuevos niveles poco a poco a ser habitados, apoderarse de las mentes y la fe de los usuarios, y de ahi obtener un rédito colosal desde luego si lo consigue; acompañando o sustituyendo la television

  • #003
    Antonio Castro - 29 junio 2014 - 13:59

    No solo ya se ha producido una inadmisible manipulación con supuestos fines científicos que alguien decidió que eran inocuos sin consultar a los afectados.

    Lo grave es que este experimento podría abrir las puertas a cosas mucho peores.

    Todos sabemos de la enorme importancia que en cualquier sistema electoral tiene el voto de los indecisos. Muchos de los usuarios de redes sociales promueven las ideas que socialmente consideran deseables retratándose con ello por mostrar parte de su ideario político religioso, etc.

    Por ello el experimento podría ser una prueba para algo más perverso. Por ejemplo alguien podría aplicar todo esto para condicionar positiva o negativamente a un colectivo de personas concreto en una fecha concreta al objeto de conseguir un objetivo determinado.

    Podría aplicarse a unas elecciones, al la convocatoria de una manifestación, o a una campaña comercial navideña, etc.

    Manipular el estado de ánimo de cientos de miles de personas es gravísimo. Si no hay leyes contra eso, ya están tardando.

    Estoy de acuerdo en que los políticos son ingenieros de la manipulación y que seguramente ya están usando toda una batería de estrategias contra nosotros, pero no por ello les vamos a facilitar aún más las cosas.

  • #004
    luis rull - 29 junio 2014 - 14:41

    Me extraña mucho que la APA (American Psicolical Ass) no haya tomado cartas en el asunto. Creo que viola sus reglas (que las recuerdo rígidas y muy en contra de este tipo de prácticas) Tenía la impresión de que la APA era quien marcaba el standar que todos los académicos seguían. Pero igual han bajado su influencia en estos años que llevo alejado de éste ámbito.

  • #005
    Manu - 29 junio 2014 - 14:42

    Te vas a dar de baja de fb? XDD es lamentable lo que hace fb, pero no me sorprende. Esta empresa nació sin ética.

  • #006
    vivaldibonao - 29 junio 2014 - 15:07

    Enrique, ¿Esa acción tendrá como consecuencia que dejes de usar fb? Yo me lo estoy planteando, pero es difícil.

  • #007
    Krigan - 29 junio 2014 - 15:53

    En Facebook ya nada me sorprende. Es una empresa que nunca se ha preocupado por la privacidad de sus usuarios, que te fríe a spam si dejas de usarlo, y que pretende que todos nos tengamos que logar a través de Facebook en webs de terceros. Y ahora esto, para Facebook no eres un cliente, eres una ratita de laboratorio.

  • #008
    andresrguez - 29 junio 2014 - 16:43

    Es algo inadmisible lo que ha ocurrido y que vulnera el derecho a la intimidad, pero la pregunta es también otra ¿Se podría haber hecho el experimento con el conocimiento de los usuarios?

    Posiblemente no, ya que los usuarios conocen el hecho y sus actualizaciones estarían influenciadas por participar en el estudio.

  • #009
    Felix Maocho - 29 junio 2014 - 17:44

    #007 Krigan
    Cliente es el que paga.

    ¿Has pagado alguna vez a Facebook?. A lo más que llegamos es a usuario, claro está que puodemos dejar de utilizarlo, como cualquier otro programa que viva de vender nuestra intimidad, o de jugar con nuestro estado de ánimo, o nos influencie con anuncios, como por ejemplo Google, o WordPress, o Twitter, o …

  • #010
    qwerty - 29 junio 2014 - 20:39

    si todos usamos teclado qwerty,eso sí que es manipulación y adoctrinamiento

  • #011
    Julio2 - 29 junio 2014 - 21:03

    Ah, ¿pero en Surveillance Valley saben lo que es la ética?

    De todas formas, se agradece que Enrique, tan optimista siempre con la tecnología, se muestre crítico en ocasiones como ésta.

  • #012
    Alfonso - 29 junio 2014 - 21:26

    Después de una par de años en FB el balance era que me consumía tiempo que prefería dedicar a ‘hacer’ otras cosas más interesantes y que de toda la información que me llegaba de mis amigos si había algo realmente importante me enteraba igualmente tomando una caña o hablando por teléfono. Los cientos que sólo eran conocidos no me aportaban gran cosa.
    Si a eso le unimos que tienes que estar siempre pendiente de qué expones de tu vida y a quien y los posibles malos usos como este que describe Enrique….
    Dos años después de mi baja estoy tan agustito

  • #013
    Observador - 30 junio 2014 - 00:41

    Por alguna razón la ética 2.0 es distinta a la offline, aunque #008 tiene toda la razón: es incomprensible intentar hacer un experimento psicológico conductista dándole información al sujeto que se analiza. Quizás sí para otros experimentos de otras áreas psicológicas, pero no para las que se espera analizar y extraer conclusiones de las conductas humanas.

  • #014
    acerswap - 30 junio 2014 - 00:41

    Hay algo que comenta el #003 que son las manifestaciones y que hace que mi yo conspiranoico se cuestione ciertas cosas.

    Las diversas revoluciones recientes han usado Twitter como instrumento de union, muchos medios le atribuyen parte del merito. Lo mismo que ha ocurrido en España con las acampadas en Sol y el 15M. ¿Podria un gobierno con control sobre las redes sociales provocar o reprimir una revuelta? ¿Hasta que punto ha ocurrido en los paises arabes? ¿Podria ser el 15M el fruto de un experimento para evaluar lo que ocurriria en un pais europeo?

    Ahi lo dejo.

  • #015
    Julio2 - 30 junio 2014 - 02:00

    acerswap, está muy claro que los Estado Unidos usan Internet y las redes sociales para derribar regímenes e impulsar los cambios que ellos quieren. Ahí tienes, por ejemplo, la creación de la red social Zunzuneo o la reciente visita de los gerifaltes de Google a Cuba para impulsar las redes sociales (tiembla, Fidel). Uno de esos gerifaltes de Google había estado implicado en el espionaje a Afganistán. En realidad Internet nunca ha dejado de ser Darpanet.

  • #016
    JC - 30 junio 2014 - 11:46

    Muy peligroso lo que se esta empezando a saber sobre las practicas de determinadas empresas 2.0…

  • #017
    Neotel 2000 - 30 junio 2014 - 12:20

    Nosotros firmamos las políticas de Facebook y estuvimos de acuerdo con sus condiciones. A qué viene quejarse? Si no te gusta no lo uses.

  • #018
    Bruno Villar - 30 junio 2014 - 14:15

    Yo sólo utilizo Facebook para atraer tráfico hacia los artículos que escribo o los vídeos que grabo… pero veo en amigos y conocidos como cuentan su vida, como trabajan gratis para facebook y sólo con el afán de conseguir “likes” para aumentar su ego.

    A la mayoría los tienen pillados por donde más duele.

  • #019
    mario - 30 junio 2014 - 15:57

    Imagino la evolución natural de estos experimentos:
    – Que nos hace más sumisos?, para apaciguar los ánimos en países con revueltas incómodas
    – Que nos hace más revolucionarios?, para intensificar las protestas en paises con gobiernos incómodos
    – Que logra aumentar el consumo?, para intervenir en la economía a partir de la manipulación psicológica

    Lo realmente preocupante es que esto se ha hecho público, pero cualquiera de estas formas de manipulación de masas no será publica, nos lo pueden estar aplicando en este mismo momento. Quizás era a esto a lo que se refería Soraya, “Se ve a la gente más feliz en las calles”

  • #020
    Mario - 30 junio 2014 - 18:02

    #013. #008. En realidad y como en cualquier otra prueba, no había porque no obtener previamente la autorización de los observados y separar un grupo de control a quienes no se les aplicaría la prueba. Esto funciona perfectamente en la medida que los observados no sepan si están o no en este grupo de control.

    Además estamos hablando de 700 mil personas solo en los EEUU. Si lo que se quería fuese data estadística de comportamientos sociales, con una muestra científicamente tomada de mil veces menos sujetos -unos 700- hubiera bastado y sobrado. Dejémonos de hipocresías. Facebook lo que ha querido aquí no es observar una mierda sino hacer una demostración práctica de su propia capacidad de manipulación emocional y de allí que 700 mil personas suene más impresionante que 700 a la hora de vender su producto: el poder alterar el ánimo de las personas.

    Aunque suene cínico, esta prueba se enmarca perfectamente en las posibilidades tecnológicas actuales de la internet como el más eficiente sistema de espionaje y control social de la historia. Pedirle al Facebook que no manipule o a Google que no espíe es como pedirle a un toro de lidia que no embista, un desperdicio de posibilidades.

    El hecho anecdótico que este experimento facebookero se haya realizado sin el consentimiento de los afectados no es sino otro ejemplo más de la “permissionless innovation” que siempre han reclamado Berners-Lee y otros gurús de la internet (incluido el mismo Enrique) para las tecnológicas, en un entorno donde no debe existir ningún control legal ni gubernamental.
    Sinceramente Enrique, no sé a qué viene tanta crítica si este es el resultado natural de tu propia filosofía.

  • #021
    Krigan - 30 junio 2014 - 21:25

    #20 Mario:

    Queda claro lo que piensas. Todo aquel que se oponga a un control orweliano de Internet se come crudos a los niños.

  • #022
    aika - 1 julio 2014 - 13:46

    Está claro que se trata de un experimento de manipulación emocional en masa. Estoy de acuerdo con la acertada observación de Mario sobre la demostración de poder de Facebook, también estoy de acuerdo con lo que dice Felix Maocho, pero, ¿a qué intereses sirve Facebook además de a sí mismo?

    La libertad de pensamiento y de acción está terminantemente prohibida para la población en general, de ello se ocupa la escuela inhibiendo el sentido crítico de los alumnos.

    Si Internet podía convertirse en caldo de cultivo para el acceso de la población a opiniones no autorizadas oficialmente o políticamente inadecuadas o a compartir y contrastar ideas que estimulen el análisis crítico de lo que se vende como la ‘verdad oficial’, los ‘think-tank’ que trabajan para el poder debían hallar la manera de contrarrestarlo, en ello, los mejores cerebros que se puedan comprar, trabajan día y noche sin descanso.

  • #023
    Miguel A. Tovar - 1 julio 2014 - 18:37

    Genial el artículo de Matthew Herper en Forbes http://www.forbes.com/sites/matthewherper/2014/06/30/dear-facebook-please-experiment-on-me/

  • #024
    Observador - 2 julio 2014 - 12:01

    #20 Mario, hay varios problemas a lo que comentas. Primero: pidiendo autorización el experimentador corre el “riesgo” de que sólo la den sujetos susceptibles de hacer las pruebas. Segundo: esa susceptibilidad puede generar condicionamientos inconscientes debidos a que el sujeto esté esperando actuar de una u otra forma, ya que tiene en el inconsciente -aquella parte de la mente sobre lo cual no tenemos ni puta idea, pero que influye en las conductas mucho más de lo que cualquier ignorante pueda pensar- que en un futuro no lejano puede comenzar una prueba.

    Te puede parecer lo mismo, pero no, no lo es. La primera opción sería mucho más limpia experimentalmente hablando.

    En cuanto a la muestra, obviamente FB tiene los medios para perfeccionar los resultados en el sentido de por qué basarse en 700 para extraer conclusiones sobre 700.000 si puedes hacerlo con 700.000 gracias a sus medios.

    Por otro lado, lo realmente abominable hubiera sido que el estudio no hubiera aparecido en una revista científica y FB lo hubiera dejado en el cajón de los “experimentos privados”, que no son pocos y sobre los cuales nadie pone el grito en el cielo. Para mí, que se hayan hecho públicos a través de una revista científica le da cierta justificación social y desde luego no tiene que ver ni por asomo con la paranoia radical del “todo se hace para espiarnos”.

    De todas formas, sí, es bastante curioso que Dans se “queje” de estos temas siendo un amigo de la filosofía de la barra libre. Pero, como digo, podría haber sido mucho peor, probablemente lo esté siendo, y nos vamos a quejar de algo que han hecho público y que no tiene otro trasfondo que conocer mejor la realidad de las cosas.

    Esto no tiene ni punto de comparación con el tema de espionaje ya conocido. Y meterlo en el mismo saco es, sencillamente, una gilipollez.

  • #025
    Laura Hernández Corella - 2 julio 2014 - 20:59

    De acuerdo con el artículo y con la mayoría de los comentarios. Si bien es cierto que no nos daremos de baja en Facebook, esta manipulación es altamente cuestionable no sólo en términos de ética, sino de negocio. El éxito de Facebook, twitter, demás redes sociales y sistemas operativos como Android, es que el contenido y aplicaciones son creadas por usuarios, no por los miembros de estás empresas. Al querer manipular y tomar control de este contenido estarían traicionando las mismas bases que los han llevado al éxito.

  • #026
    Miguel A. Tovar - 3 julio 2014 - 01:41

    La inmensa mayoría de nosotros no hemos leído las condiciones cuando nos hemos dado de alta en Facebook o en cualquier otros servicio. Recomiendo para quien no lo conozca una visita al sitio ‘Terms of service didn’t read’ (tosdr.org), que permite que seamos un poco más conscientes de qué es lo que hemos aceptado quienes somos usuarios de determinados sitios.

  • #027
    Observador - 3 julio 2014 - 11:33

    #026 Miguel, no lo entiendes. En España no es así, no son las empresas las que ponen condiciones y términos, son los usuarios. Tenemos una especie de derecho universal y divino por el cual podemos seguir usando las plataformas que no queremos de forma que sean ellas las que cambien el juego cuando a nosotros nos apetezca…

    Porque nosotros lo valemos. Y quizás en poco tiempo igual hasta les decimos que nos tengan que pagar por usarlo.

  • #028
    Mario - 4 julio 2014 - 13:35

    #24. Observador. Me alegro poder por fin disentir totalmente contigo, que usualmente al leerte me parecía sufrir de algún tipo de sonambulismo para hacer astroturfing en este blog.

    Primero y principal, hace muchos años que la experimentación con seres humanos está minuciosamente normada para evitar que los “Mengeles” que pululan en este mundo hagan de las suyas respaldados con el poder económico de corporaciones farmaceúticas y presigiosas (y millonarias) universidades o centros de investigación. Entre estas normas la primordial y la única que distingue al hombre del chimpancé y la cobaya es el “consentimiento informado”. Ya correspondería a un juez, y ojalá se diera el caso, determinar si un menor de 13 años, con solo darse de alta en Facebook ya está aceptando ser sujeto de experimentaciones psicológicas, o si entre las 700 mil personas manipuladas, algún enfermo de depresión o stress sufrió algún percance adicional por ser parte del experimento sin darse cuenta. Tú y yo sabemos que esto no va a ocurrir porque Facebook ya debe haber desaparecido totalmente (allí sí funciona el derecho al olvido) la identificación de los sujetos por si alguno se suicidó por su causa – bueno, estadísticamente en un universo de casi 700 mil, al menos 7 sí lo han hecho pero no se podrá probar nunca si eran parte de los ratones de Zuckerberg o no).

    Sobre la “limpieza experimental” que mencionas, entendida como la mejor metodología para llevar a cabo un experimento pues sencillamente me cago en ella. Sin duda ya quisiera Pfizer poder introducir algún compuesto en el agua potable de una ciudad y experimentar su nuevo litio con una “muestra” no de 100 personas sino de toda la población de Madrid por ejemplo. ¿No sería este también un experimento metodológicamente impecable? Ya no necesitas ni siquiera un grupo de control porque tu muestra es del 100%. Para entonces ya quisiera ver a Enrique hablar de “dudosa ética” o a ti incluso defender la metodología utilizada. Creo más bien que saldrían ambos y el resto de madrileños como locos a quemar las oficinas de Pfizer, pero claro, como farmacéutica mala y tecnológica buena… hay que medir con distinta vara.

    Que Facebook haya publicado esta barbaridad es una pobre concesión que solo demuestra el grado de impunidad con el que supuestamente está revestido el señor Zuckerberg, el mismo que dijo que era una “falta de integridad” usar más de un perfil en su red social. ¿Y es en la ética de este imbécil en la que se debe confiar? Yo siempre le he dicho a los chicos que nunca posteen datos reales ni cosas importantes (hay muchos que usan Facebook como un diván del psicólogo donde liberar sus frustaciones y tensiones más íntimas haciéndolas públicas) y que no olviden que sus chats nunca son privados sino siempre conservados y analizados. Que escriban idioteces, posteen memes y fotos del gato, se enamoren o se desenamoren, no me preocupa porque hablar idioteces es lo mismo que hacíamos siempre de adolescentes aunque sea usando el teléfono por 30 minutos. También es muy bueno para aficiones o grupos de intereses comunes y conocer gente afín en sus gustos, etc, incluso su publicidad parece ser útil y funcionar bien -los chicos van al sitio donde van sus amigos después de todo. Todo eso estará muy bien, pero de allí a tolerar que un hijo de puta en California se tome la libertad de manipular las emociones de nuestros hijos o nietos, entristeciéndolos o alegrándolos a voluntad, hay un trecho muy largo.

    Por último, but not least, no es ninguna gilipollez concatenar el potencial espía y el potencial manipulador de la red. Lo que hicieron las revelaciones de Snowden sobre el tema del espionaje masivo está volviendo a suceder pero ahora con el tema del carácter manipulador de internet. Es entre ambos, el espionaje y la manipulación, que la red se convierte en el potente aparato de control social que las tecnológicas y los poderes fácticos (políticos y económicos) quieren para sí. Pero para que esta internet se desarrolle a plenitud es necesario atrofiar o eliminar si se puede todo derecho individual establecido. Hay que “reformar totalmente el copyright” o “existe ahora una nueva concepción de privacidad” es un discurso recurrente para imponer lo que en realidad se busca: la eliminación de derechos establecidos. Igualmente, ser objetos de manipulación encuentra ahora su falsa justificación en la experimentación científica, que aggiornada tecnológicamente ya no requerirá de grupos de muestra, porque puede hacerse masivamente, ni del consentimiento de los observados, porque han suscrito unas ToS. Después de todo, como lo dice Facebook al defenderse, es para “brindarnos un mejor servicio” -y hay bastantes que se lo compran porque Facebook es adictivo y gratis. ¿Alguien en Facebook nos ha dicho que mierda estaban tratando de demostrar, buscaban la cura del cáncer o cual era la hipótesis científica puesta a prueba (que no sea su propio poder sobre las personas)?

    Los gurús como Enrique, los “expertos” en internet que solo tienen una visión rosa de la red nunca discutirán seriamente los peligros de una red sin controles porque están postrados hacia Google, Facebook y sus juguetes, como un Musulmán rezando con dirección a la Meca… y con la frente pegada al suelo no se puede ver nada. Snowden o este experimento son solo unos sacudones para un Enrique siempre postrado que puede oler que algo se pudre en su mezquita pero igual no se va a mover. (Del Dr. Krigan ni hablemos, él ya rompió el suelo a punta de cabezazos y todavía cree que sus gmails son privados).

  • #029
    Willy - 6 julio 2014 - 19:26

    No es ético y es preocupante que se pueda manipular a la gente en masa.

    Hace unos días circuló una noticia (que tuvo poco eco en grandes medios, sea que fue amarillista y se desestimó o un intento de censurarla), donde un joven estudiante en Estados Unidos reportaba censura, un filtrado en las computadoras de su escuela para favorecer sitios web liberalistas y evitar que los estudiantes pudieran conocer líneas de pensamiento conservador.

    Hoy amanecí con la noticia de que Google está filtrando resultados en Europa, aunque no por arbitrariedad sino porque debe acogerse a las legislaciones de la Unión Europea, pero eso nos hace recordar que no solo Facebook puede experimentar con sus usuarios.

    Ojala esto solo sea algo aislado y que no se repita ni en Facebook ni en otras compañías, sería un problema si se comienza a usar para manipular la opinión pública.

Dejar un Comentario

Los comentarios están cerrados