Archivo de la categoría: Herramientas

Curando contenidos en Twitter v. 9

Nueva entrega en Storify de la serie Curando contenidos en Twitter. En este caso recojo una selección del trabajo realizado por estudiantes de la asignatura Estrategia de content curator en el postgrado y máster Social Media Content en la Universitat Oberta de Catalunya

curando contenidos en twitter 9

About Javier Guallar

Javier Guallar 2011 Documentalista, Content Curator, Profesor documentación y comunicación, Editor. En UB, URL, UOC, UIC, revista El profesional de la información (EPI), Anuario ThinkEPI, colección libros El profesional de la información (ed.UOC), Los content curators. Coautor libros "El content curator", "Prensa digital y bibliotecas"

Curando contenidos en Twitter y medios sociales v.8

Nueva entrega en Storify de la serie Curando contenidos en Twitter y medios sociales. En este caso recojo una selección del trabajo realizado por mis estudiantes del Grado de Comunicación Audiovisual de la Universidad de Barcelona en la asignatura Comunicació a la Xarxa (Comunicación en la Red)

storify-curando-contenidos-en-twitter-ubcomunicaxarxa

 

About Javier Guallar

Javier Guallar 2011 Documentalista, Content Curator, Profesor documentación y comunicación, Editor. En UB, URL, UOC, UIC, revista El profesional de la información (EPI), Anuario ThinkEPI, colección libros El profesional de la información (ed.UOC), Los content curators. Coautor libros "El content curator", "Prensa digital y bibliotecas"

Humanos y algoritmos, a propósito de la curación de contenidos en Facebook

Estos días se está hablando bastante en las redes digitales de los problemas que parece tener Facebook para seleccionar y presentar de la mejor manera posible las informaciones que ven sus usuarios. Las noticias de estos últimos días tienen para mi algo de deja vu, de nuevo resurgir de una problemática permanente en la  era de la información desde que existe la Web. Algo así como una nueva versión de la disputa humanos versus algoritmos.

facebookUn breve recorrido por los hechos:

En el pasado mes de mayo el blog de tecnología Gizmodo publicaba un post que desencadenaría un terremoto en Facebook, Former Facebook Workers: We Routinely Suppressed Conservative News, al informar de que el equipo de news curators encargado de la selección de los trending topics de la red social tenía unos sesgos claramente “anticonservadores”. Los medios, como The Guardian (Facebook news selection is in hands of editors not algorithms, documents show), consideraron mayoritariamente que el hecho de quedar la selección de noticias en manos de editores que parecían seguir unas directrices ideológicas concretas, convertía a Facebook en un medio de comunicación en sí mismo, con una determinada línea editorial, lo cual desmentía su proclamada neutralidad. Reacciones desde la compañía como este post de Zuckerberg, o el artículo Information About Trending Topics de Justin Osofsky intentaron contrarrestar ante la opinión pública la visión anterior. Vale la pena detenerse un momento en este último texto, cuya lectura completa recomiendo a los interesados en estos temas. Según explica Osofsky, el Trending Topics Team trabajaba entonces (mayo de 2016) de la siguiente manera:

1.En una primera fase, las informaciones se seleccionan a partir de: a) un algoritmo que identifica los temas más populares, y especialmente, aquellos que tienen un crecimiento de popularidad más rápido, y b) del rastreo sistemático de esta lista de fuentes.

“Potential Trending Topics are first surfaced by an algorithm that identifies topics that have recently spiked in popularity on Facebook”

2.En una segunda fase, los miembros del Trending topics Team comprueban “manualmente” el alcance de las noticias a ofrecer a los usuarios (teniendo en cuenta varios elementos, como por ejemplo si se han recogido por varios medios de entre esta lista), redactan una breve descripción de las mismas y las etiquetan según categorías.

3.En una tercera fase, de nuevo entran en juego los algoritmos, para personalizar la lista de topics que ve cada usuario, en función de diversos factores:

“The list of Trending Topics is then personalized for each user via an algorithm that relies on a number of factors, including the importance of the topic, Pages a person has liked, location (e.g.. home state sports news), feedback provided by the user about previous Trending Topics and what’s trending across Facebook overall. Not everyone sees the same topics at the same time”

El resultado es por tanto el que todos conocemos bien por nuestra experiencia en la red social. Lo remarco: Not everyone sees the same topics at the same time

Como Facebook no consiguió en los meses siguientes dejar zanjada la polémica iniciada por el post de Gizmodo, a pesar de explicaciones públicas como las mostradas arriba, y de la asunción de medidas internas como formación a sus empleados para evitar el sesgo político, finalmente decidió cortar por lo sano a finales de agosto, nada menos que despidiendo en pleno a todo el equipo de news curators  y sustituyendo el proceso antes descrito por la actuación exclusiva de los algoritmos. La explicación oficial, en Search FYI: An Update to Trending:

Today, we’re making some changes to the Trending feature on Facebook that will make the product more automated and will no longer require people to write descriptions for trending topics”

Enrique Dans lo ha explicado muy bien en su post Entre personas y algoritmos, gana el algoritmo:

“Resulta muy posible que el problema real no desaparezca tras la sustitución, o incluso pueda empeorar, porque no hay ni persona perfecta, ni algoritmo perfecto. En la práctica, todo indica que se hace simplemente como forma de justificar algo desde un punto de vista estético, por tener un chivo expiatorio sin rostro al que señalar en caso de problemas, considerando que para el conjunto de la sociedad, la atribución del sesgo a las personas frente a unos algoritmos supuestamente neutrales es una creencia que, aunque errónea, aún se encuentra suficientemente arraigada

Este “incluso pueda empeorar” que señala Dans no hemos tardado nada en verlo. En los días siguientes al cambio, varios errores lamentables, como la publicación de una información falsa sobre la periodista Megyn Kelly y especialmente de un video de un joven masturbándose con una hamburguesa de pollo de McDonald’s, que se hizo rápidamente viral, han dejado a Facebook por los suelos… Bochornoso.

Hasta aquí los hechos. Vamos con un breve comentario:

Volviendo a la explicación oficial del cambio de sistema, el tema de la dimensión, de la escala, del volumen de los contenidos a seleccionar, es clave:

“A more algorithmically driven process allows us to scale Trending to cover more topics and make it available to more people globally over time

Uno de los puntos fuertes de los algoritmos es sin duda esa capacidad de trabajar a gran escala. Pero Facebook no dice nada (o lo olvida expresamente) acerca de la calidad que aporta la supervisión humana de los contenidos que se distribuyen, no dice nada de la necesidad de verificación de las informaciones, no dice nada de la posibilidad de que profesionales aporten valor a la mera clasificación y distribución totalmente automatizada de la información.

Toda esta situación me ha recordado de nuevo, cual deja vu, la situación vivida dos décadas atrás, en los primeros tiempos de la Web con la derrota del directorio Yahoo (hecho por humanos) ante los algoritmos cada vez más perfeccionados del buscador Google, cuando las dimensiones (la escala) de los contenidos a clasificar por los profesionales de Yahoo fue inasumible.  Desde aquellos inicios de la Web, los algoritmos han reinado y el papel de la selección humana de informaciones se ha centrado básicamente en los contenidos temáticos, especializados, de escalas asumibles, ahí donde los humanos son superiores a las máquinas (al menos, de momento). La content curation es la actualización de esto en nuestros días. De ello hemos hablado en el epílogo de nuestro libro El content curator.

Así, cuando veo que grandes como Facebook se interesan por la content curation, lo veo con esperanza por una parte, pero casi siempre suelo dudar de su viabilidad futura, recordando que tratándose de grandes dimesiones, siempre suelen ganar las máquinas. Es bastante probable que en Facebook la selección de contenidos, una vez se solucionen los clamorosos errores de estos últimos días, acabe quedando en manos exclusivamente de algoritmos, supervisados  por profesionales con el perfil de ingenieros, data sicentists o especialistas en big data, es decir profesionales de la tecnología, no de los contenidos. Es lo que hay.

Y sin embargo, el método que explicaba Osofsky me parece un muy inteligente sistema de curación de contenidos basado en la combinación entre el trabajo de humanos y de algoritmos. No renuncio totalment a ver algo así funcionando con éxito por parte de algún grande, y algunos intentos parece que sí los hay (ejemplo en Periscope), pero reconozco que en general está crudo ahora mismo, en plena fiebre big data.

Así que centrémonos en escalas asumibles, preocupémonos por hacer una concienzuda selección de fuentes, no escatimemos en la verificación de informaciones, exprimamos nuestras neuronas para añadir sense making a lo que compartimos,  y pongámonos a bordar nuestro toque personal como curators, lo que -todavía- no saben hacer bien las máquinas.

¡Buena curation!

About Javier Guallar

Javier Guallar 2011 Documentalista, Content Curator, Profesor documentación y comunicación, Editor. En UB, URL, UOC, UIC, revista El profesional de la información (EPI), Anuario ThinkEPI, colección libros El profesional de la información (ed.UOC), Los content curators. Coautor libros "El content curator", "Prensa digital y bibliotecas"

El bibliotecario como content curator

La semana pasada tuve la oportunidad de impartir en Palma el curso de formación “El bibliotecari com a content curator” en la Universitat de les Illes Balears (UIB) para el personal de Biblioteca y Documentación.

bibliotecari com a content curator

Se trató de un curso presencial de 10 horas en el que  vimos en primer lugar brevemente la teoría de la content curation, para ponerla a continuación en práctica durante la mayor parte de las horas del curso, siguiendo el desarrollo de las 4S’s. Buena parte del material del curso, tanto el de apoyo a mis charlas como las prácticas y actividades que fuimos desarrollando, están disponibles en abierto en la Web y aprovecho este espacio para agruparlos y compartirlos aquí, pensando que pueden ser de interés a los interesados en curación de contenidos, y en especial a los interesados del sector de Bibliotecas y Documentación.

El material de base está recogido en dos presentaciones disponibles en Slideshare:

 

A partir de aquí, fumos realizando diferentes prácticas, siguiendo el desarrollo en fases de las 4S’s. Por ejemplo, una muestra de curación de contenidos en Scoop.it, atendiendo especialmente a la caracterización o sense making es este scoop de Lecturas recomendadas de curation a partir de un texto de Evelio Martínez.

Buena parte del trabajo se canalizó vía Twitter tanto en la tercera S (caracterización) siguiendo las diferentes técnicas de caracterización en esta plataforma, como en la cuarta S (difusión), compartiendo las prácticas realizadas en otras plataformas como List.ly, Scoop,it, Pinterest, blogs y Storify, herramienta con las que recogimos un resumen del curso que comparto al final de este post.

Desde aquí agradezco a Miquel Pastor y Marta Macías, organizadores del curso, la oportunidad de trabajar con profesionales tan motivados. Asimismo, aproveché la estancia en la isla para desvirtualizar a mi querida exalumna y actualmente colega y profesional del social media Teresa Miquel. Es una satisfacción comprobar como el interés por la content curation se va extendiendo.

A continuación, el Storify Curando contenidos en Twitter y medios sociales v.6

 

 

About Javier Guallar

Javier Guallar 2011 Documentalista, Content Curator, Profesor documentación y comunicación, Editor. En UB, URL, UOC, UIC, revista El profesional de la información (EPI), Anuario ThinkEPI, colección libros El profesional de la información (ed.UOC), Los content curators. Coautor libros "El content curator", "Prensa digital y bibliotecas"

Criterios de selección en un proyecto de curación de contenidos. El caso de Collections de Medium

Medium ha publicado hace pocos días el documento How we curate. Guidelines and Principles que me ha parecido interesante acercar a los lectores de este blog. Para quienes no conozcan Medium, se trata de una plataforma de blogs creada en 2012 por el cofundador de Twitter Evan Williams, de la que ya hablamos hace un par de años en este post. Un sistema muy amigable para publicar posts y una cada vez más rica comunidad de usuarios interesados en publicar contenidos de calidad, le están confiriendo un papel cada vez más relevante en la web social actual. Desde hace unos días, Medium ha añadido una nueva funcionalidad llamada Collections, de momento solo en su app para IOS y Android, basada en la curación de contenidos. El equipo editorial de Medium más las aportaciones que la comunidad de usuarios quiera hacer (en el correo tips@medium.com), generan una selección de los mejores posts de la plataforma.

Medium Collections

Como la orientación hacia los contenidos de calidad, marca de la casa de Medium, liga muy bien con la filosofía original de la content curation, no es pues de extrañar que cuando los gestores de Medium han diseñado un servicio para presentar los mejores posts de la plataforma, lo han hecho basándose en un sistema de curación de contenidos y no en un sistema de agregación automatizada.

Más allá de entrar a valorar Medium y este nuevo servicio, la intención de este post es destacar el documento en el que explicitan la filosofía y los criterios que siguen en este proyecto. How we curate. Guidelines and Principles nos parece un documento valioso para content curators. Recomendamos la lectura del documento completo, y copiamos aquí como muestra la parte que más me ha interesado: sus criterios para la selección de contenidos (traducción libre):

“Tenemos preferencia por las historias, los usuarios y las publicaciones que añaden conversación o demuestran originalidad. En la práctica, esto significa que nos centramos en  curar:
• historias valiosas con noticias originales o que saben reflejar tendencias actuales 
• historias originales o recopiladas con contenidos de alta calidad
ideas innovadoras de todos los géneros
voces distintas, desconocidas o con perspectivas únicas
• temas interesantes que no suelen atraer a los grandes medios
• narración (storytelling) innovadora o experimental”

La fase de Select o selección de contenidos, la segunda de las 4S’s, es una de la fases en las que se puede aportar más valor en el conjunto del proceso de la curación, junto a la de Sense making o caracterización de contenidos. Las pautas y criterios de selección de los contenidos a curar son una cuestión clave para cualquier proyecto de curation. Si además se trata de un proyecto de cierta envergadura, como el que nos ocupa, explicitarlo de manera pública como hacen en Medium, es un signo añadido de calidad.

Por tanto, estamos hablando de un buen referente y de una clara recomendación a seguir para un proyecto de content curation: publicar de manera clara y transparente los criterios seguidos para la selección de contenidos.

About Javier Guallar

Javier Guallar 2011 Documentalista, Content Curator, Profesor documentación y comunicación, Editor. En UB, URL, UOC, UIC, revista El profesional de la información (EPI), Anuario ThinkEPI, colección libros El profesional de la información (ed.UOC), Los content curators. Coautor libros "El content curator", "Prensa digital y bibliotecas"