Should Academics Try Twitter?

Yes. Absolutely. According to this tongue-in-cheek chart. No, but seriously. You absolutely should  — at least — try it.

(Thanks, @amisamileandme for forwarding this chart to me)

At the beginning of August 2016, a Guardian article written by an anonymous PhD student attacked the use of social media for academic work. It was published under the patronising title “I’m a serious academic, not a professional Instagrammer”. It sparked a healthy and very interesting debate on Twitter under the hashtag #SeriousAcademic.

Many academics in various stages of their careers wrote tweets and articles contradicting this article. They mentioned many uses of social media for their work (as well as their social life and entertainment).

One of the most interesting and complete responses I’ve seen came from Jacquelyn Gill, an ice age ecologist at the University of Maine (Thanks, @kevinmarks for bringing it to my attention). Her two-tweet response and the discussions that ensued are worth a read.

Academics with blogs also reacted strongly.

Leigh Sparks (@sparks_stirling) from the Institute for Retail Studies, University of Stirling, offers My Serious Academic Use of Blogs and Twitter. This retail specialist summarizes lessons learned on the usefulness of social media to his career.

Dean Burnett (@garwboy), doctor of neuroscience, comedy writer and stand-up, parodies the original article. Doing so, he offers many links on the problems usage of social media in academia may address with I’m a non-serious academic. I make no apologies for this also on the Guardian platform. Social media provided him with alternative prospects since his field is oversubscribed.

Kevin Gannon (@TheTattooedProf), a history professor at Grand View University in Des Moines, Iowa offers a rebuke to the original article and deconstructs the notion of “serious academic” in I’ve Got a Serious Problem with “Serious Academics”.

Main benefits of a presence on social media for academics put forth by these articles and tweets are:

  • Sharing enthusiasm and supporting each other
  • Adding researchers to your network and create stronger ties which might lead to cooperation opportunities
  • Exchange sources and references which may be useful for research and/or funny.
  • Increase the circulation and readership of your work (books, peer-reviewed articles, blog posts, quotes in the press, etc.)
  • Increase the odds journalists will contact you for stories.
  • Have control of your online image and not depend on your institution’s staff web pages.
  • Using it as a back-channel for conferences and other events to get noticed by participants and organisers.
  • Promoting your field and providing expertise to the general public simply by inhabiting those online spaces and having your exchanges archived. For the Liberal Arts and Humanities, such a presence makes it easier to present our disciplines in a positive light outside of the frame of crisis / being set aside that has been pervasive in the media these last few years.

Social media is only a drag if you try to control too tightly. You have to find and/or define boundaries, yes. However, most academics who report seeing benefits use social media as humans first and foremost because that is how you can connect with people. That’s the charm of social media. Again, don’t take my word for it:

If you do social media like this, you’ll reap benefits and it won’t feel like yet another professional task. Putting on a mask is orders of magnitude more complicated than learn to inhabit those spaces as yourself.

There’s a range of openness, of course. It is a matter of personal style, how visible and likely you feel to attract unwanted attention from racists and misogynists.

One thing is for certain, trying to remain 100% on-brand on social media will exhaust you and make you come across as fake. You should be yourself, inhabit the online public space as best you can and try to be a good online citizen. As long as you let your passion and your expertise shine, you’re on the right track.

Done well, your online presence can be about work, show a bit of yourself and feel genuine while you maintain boundaries that seem clear and healthy to you. Clara Nellist’s Twitter feed is a great example. I follow her because particle physics is cool (and she seems nice). Although we don’t interact directly, her tweets are full of value and the occasional glimpse into her life as a postdoc makes her relatable. Tweets about her travels or some of her outside activities make it easy and fun to connect. For example, learning that she finished the 20 kilomètres de Paris and seeing her proud selfie put a smile on my face.

The more human you are the easier it will be to make genuine connections with other humans. That’s why it’s called social networking. You can find out all about this approach in Stephanie Booth’s one-hour talk entitled “Be Your Best Offline Self Online“. (She helps people get started and manage their online presence in one-to-one and one-to-many workshops. She’s nice and very knowledgeable. I met her through her blog.)

If you feel motivated to start on social media, I would advise you to start with Twitter: Messages are short, it is public by default, there is very little to misunderstand.

The London School of Economics and Political Science published “Five minutes with Patrick Dunleavy and Chris Gilson: “Blogging is quite simply, one of the most important things that an academic should be doing right now” on their IMPACT blog all the way back in 2012.

They also have a Twitter Guide that may be a bit dated as it is from 2011. More importantly though, they have a list of Twitter users active in the Humanities and Arts for you to follow.

Thoughts on the latest Twitter abuse piece

The Buzzfeed piece about Twitter abuse that makes the rounds since last Thursday proves to be a very interesting read. The way the abuse problem has been left to fester is infuriating. So much so that while reading I took notes. Notes laced with profanity. Here are a few thoughts.

Free speech radicalism is an easy extremist tenet to hold in many ways. First, it is often defended by people who don’t know abuse at all. They, therefore, don’t have to make any sacrifices for this radical belief of theirs. Second, it is — in theory — a steadfast policy that protects the company from liabilities. They can then say that they’re a utility and don’t make content decisions.

It stems, however, from a weird idea of free speech. Free speech is great. I wouldn’t want the government to silence me but I want to be held accountable for the shit I say. Free speech radicals seem to have another definition. To many of them, free speech as being allowed to say whatever you want, often without suffering any consequences. Allowing people to be protected from the consequences of shitty actions and shitty words is not a moral imperative. It creates a toxic environment where a few assholes can police the speech of all the others by unleashing barrages of abuse and threats. It doesn’t help foster more productive debates. Just the opposite.

Yet, once people accept something needs to be done, the search for the ‘perfect solution’ begins… This search lead to paralysis as Vivian Schiller is reported as saying in the piece. Extremists always ask for a perfect solution before letting go of their own problematic one. Always seeking to swap an extremism for another. But that’s not how the social space works, that’s not how humans function and communicate. There needs to be moderation in every sense of the word. We need kind and intelligent judgment calls and concessions. There needs to be consistency obviously but no solution will ever be perfect.

Jack Dorsey is quoted as saying “No employee should ever be in the position of having to decide, subjectively, what qualifies as free speech and what does not”. This makes me doubtful that this problem will ever be mitigated. It will always come down to human judgment whether the judgment of a moderator or the judgment of an engineer designing an algorithm. Stress cases will always arise where the meaning of free speech will need to be discussed. Putting the burden completely on the users to moderate is again non-committal safe in the sense that investors might not punish the company and it won’t unleash lawsuits but it won’t fix the problem that for a vast majority of users, being on Twitter is very tiring work, an energy drain and often even a safety concern.

Large organizations all have things they’d rather not discuss (*cough* web governance *cough*), power struggles they’d rather not address, ambiguities that are preserved even if they hurt the business because it is believed that somehow these discussions would never end and distract everyone. I firmly believe leaders should encourage these discussions nonetheless. Especially in this case.


Adieu ThinkUp


Hier soir, j’ai appris avec tristesse la fin annoncée de ThinkUp. Anil Dash, co-fondateur de cette entreprise avec Gina Trapani a expliqué les raisons de cette fermeture sur Medium.

ThinkUp permettait de recevoir des informations sur son utilisation des réseaux sociaux sous formes de petites capsules digestes comme “Evren a utilisé des points d’exclamation dans 133 tweets au cours du mois écoulé” plutôt que sous formes de graphiques difficiles à interpréter.

Malheureusement, ce genre de service repose entièrement sur les APIs des grands réseaux sociaux. Les APIs permettent de récupérer des données depuis les réseaux sociaux pour les traiter. Les grandes entreprises qui les gèrent, font régulièrement des changements dans ces APIs — parfois pour des raisons techniques et parfois pour décourager les développeurs de créer des clients alternatifs.

Au plus beau jour de ce service, on pouvait recevoir des observations pertinentes sur notre utilisation de Twitter, Facebook et Instagram. Facebook et Instagram ont récemment fait des changements importants et assez restrictifs à leurs APIs. Twitter se prépare à en faire aussi.

Comme l’explique Anil Dash dans son billet, ces modifications entraînent des surcoûts de développement imprévisibles. Le nombre d’abonnés n’étant pas assez important pour absorber ces surcoûts et les repreneurs potentiels étant inquiets de buter sur les mêmes problèmes, le service sera arrêté le 18 juillet prochain.

Cela me pousse à me demander si on peut compter sur les APIs des géants du web. On est, au moins, obligé d’admettre qu’il faut des poches profondes pour pouvoir suivre leurs évolutions parfois brusques. Cela rend, évidemment, difficile la survie de petits projets financés par l’abonnement et qui se refuse à afficher de la pub ou vendre les données aux annonceurs. Je me réjouis de voir les co-fondateurs écrire à ce propos.

Je tiens à profiter de cette occasion pour remercier encore une fois très chaleureusement Gina Trapani et Anil Dash pour avoir créé et maintenu ThinkUp. Merci infiniment. Et bonne chance pour leurs projets futurs.

Cette annonce de fermeture me fait prendre conscience, encore une fois, à quel point il est important de sauvegarder le web ouvert et indépendant. Les technologies standardisées et ouvertes permettent, seules, l’émergence de ces projets cools. Bloguer sur nos propres sites, avoir nos propres flux RSS, … est très important pour garder ces technologies et ces usages vivants.

Happy Belated Ada Lovelace Day

I pride myself in being reasonably knowledgeable in the history of sciences (for an English major, I mean). Hence it is a little shameful and revolting not to be able to find a historical figure to talk about for Ada Lovelace Day and miss the deadline. It tends to show that Ada Lovelace Day remains necessary as a reminder as well as a celebration. But there is another problem, science, technology, engineering and mathematics are so pervasive that their boundaries are blurred now. Who’s to say what is in and what is out?

Recent experiences in user support have lead me to think more about a former client who inspires me. Kelly Hungerford, community manager at, has a passion for people. She helped me produce what was, until then, my best work. These articles are still on their Community Blog.  She has incredible insights into the challenges and motivations of the service’s users. I try my best to emulate the qualities that make her so in my own work.

I always knew support and community management weren’t as effortless as she made them seem. Yet, I didn’t get the full picture until I was confronted with users all the time in my own job. Getting people to adopt software is a constant challenge. Even if the tool is good, it takes patience to get them to invest in learning and change their workflows.

Support is yet a different beast. Users who contact support are often on the brink of giving up on the tool. They expect to be let down because of all the terrible support out there. It takes an enormous amount of kindness and comprehension to get through to them — in addition to the technical expertise necessary to diagnose and fix their problems. When they get timely and effective support, their attitude changes. They feel listened to and invested. I saw that at and I aim for the same thing — always.

Technology is about people, organisations and technics — in that order. It needs a lot of diversity among the people making it to strive. We need the insights of everybody to make it work. That is why I wish you a happy belated Ada Lovelace Day.

Science and Technology: Fueled by Their Own Internal Logic?

Brain Pickings published an omnibus of definitions concerning science. It was followed by an addition from Neil deGrasse Tyson. According to him, science is ingrained in our DNA because experimentation is the way little children inquire about the world.

His statement about originality is perhaps the most interesting:

If I discover a scientific idea, surely someone else would’ve discovered the same idea had I not done so.

It points to an internal logic of science. Discoveries rest less on the individuals designing the experiments but on some form of internal logic. This observation by Neil deGrasse Tyson is akin to ideas Kevin Kelly develops in What technology wants and in his TED Talk about the Techmium, a near living organism formed by our technological systems. If science and technology aren’t driven by individual contributions, are they driven by social and economic forces? or biology? a combination of all? or something else entirely?

Lise Meitner, physicienne.

Lise Meitner (1878-1968) a fourni, avec son neveu, la première explication théorique de la fission nucléaire. Le comité du prix Nobel a ignoré sa contribution en décernant le prix Nobel de chimie à Otto Hahn pour sa découverte de la fission des noyaux lourds en 1944.

Lise Meitner

Avant le centenaire de la théorie de la relativité restreinte en 2009, je n’avais jamais entendu parler de cette femme. Certains documentaires célébrant le centenaire de e=mc2 racontent son histoire. Pourquoi attendre de célébrer Albert Einstein pour parler de Lise Meitner ?

En ce jour de célébration du rôle des femmes dans les sciences, intéressons-nous un peu à elle. Lise Meitner entre à l’université de Vienne en 1901. La physique la passionne. Après son doctorat, elle entre à l’Institut Kaiser Wilhelm à Berlin et publie d’importants résultats à la fois seule et en collaboration avec le chimiste Otto Hahn.

Enrico Fermi s’intéresse, dès 1934, à la création d’isotopes radioactifs artificiels par bombardement de neutrons lents. Ses découvertes posent des problèmes théoriques que Lise Meitner, Otto Hahn et Fritz Strassmann s’emploieront à résoudre. Malheureusement, l’annexion de l’Autriche par le régime nazi force Lise Meitner à s’enfuir vers la Suède à cause de ses origines juives.

Resté en Allemagne, Otto Hahn réussira à mettre en évidence le fait que l’uranium bombardé de neutron crée du baryum. Elle parviendra, avec son neveu Otto Frisch, à expliquer les résultats expérimentaux de Hahn mais sa contribution restera largement sous-estimée.


L’Internet et le cyberespace: un espace de liberté invisible et menacé

L’Internet est un outil précieux mais compliqué parce qu’en grande partie invisible et aujourd’hui menacé par des intérêts privés et des législations liberticides.

Il est bon de distinguer, premièrement, la définition technique d’Internet et, deuxièmement, l’espace métaphorique créé entre êtres humains sur le réseau qui englobe des aspects plus philosophiques.

Occupons-nous en priorité et brièvement de l’aspect technique. L’Internet est non seulement invisible mais aussi abstrait. Il s’agit d’un pacte décrivant la façon dont on peut transporter des données d’une machine à une autre. Ce pacte ne décrit ni le support de transport, ni la nature des données transportée. Si c’est numérique, c’est transportable. Internet est donc fondamentalement polyvalent et ouvert. En plus, tout le monde est libre de l’utiliser ce qui lui donne un caractère libertaire et égalitaire (voir aussi Un monde de bouts de Doc Searls et David Weinberger).

Sur le plan humain et philosophique, les réseaux informatiques ont permis l’émergence d’un nouvel espace social. Ainsi, William Gibson, auteur de science-fiction cyberpunk, a inventé le mot « cyberespace » pour le définir. Dans son roman dystopique Neuromancien, il le définit comme une « hallucination consensuelle » et « une représentation graphique de données extraites des mémoires de tous les ordinateurs du système humain ». Cette définition met l’accent sur la séparation entre le cyberespace et le monde réel mais d’autres penseurs ont utilisés le mot dans une acception moins négative. Dans les milieux activistes et universitaires, « cyberespace » évoque la nouvelle réalité d’un espace social immatériel né de la conjonction des systèmes informatiques, des moyens de télécommunication modernes et de leur utilisation par des êtres humains. L’existence du terme permet d’ouvrir une nouvelle réflexion.

Map of the Internet by Opte Project

Le cyberespace fait trembler sur leurs bases les concepts d’incarnation, de subjectivité, d’identité. En ligne, tout est question de choix. Parce que tout se passe par l’intermédiaire d’une machine, le bavardage textuel permet de s’abstraire de son corps. On peut facilement « parler » à des inconnus et ne pas se décrire ou mentir dans la description de son physique. On peut aussi fragmenter son identité en fonction du contexte en choisissant d’avoir, sur Amazon, un nom d’utilisateur différent de celui choisi sur FriendFeed par exemple. Sans nul doute, ces nouvelles libertés nous obligerons à repenser et à réajuster de nombreux concepts chers à notre culture. David Weinberger dans son « Small Pieces Loosely Joined: A Unified Theory of the Web » (2002) explore ces changements et leurs implications philosophiques avec une grande minutie et un optimisme rafraîchissant.

Malgré l’inconfort que ces bouleversements suscitent maintenant, il est très important de protéger ces caractéristiques du cyberespace parce qu’elles permettent à des groupes qui n’avaient jamais eu accès aux médias de masses d’être entendus. Dans sa présentation Comment les médias sociaux peuvent faire l’histoire, Clay Shirky explique comment les technologies de l’information et de la communication permettent à des activistes aussi bien américains que chinois ou iraniens de se coordonner et d’influencer positivement la marche de la démocratie. Pour que cela continue et devienne la norme, le caractère techniquement peu contraignant de l’Internet doit être préservé et les législations liberticides discutées actuellement dans de nombreux pays comme l’ACTA ou le filtrage de l’Internet doivent être stoppées.

En juin 1990 déjà, John Perry Barlow s’inquiétait des actions du gouvernement américain qui menaçait, par ses actes arbitraires, d’annihiler la liberté que les utilisateurs trouvent dans le cyberespace. À la fin de « Crime et perplexité », il annonce la création de la Fondation pour la Frontière Électronique, l’EFF pour « transmettre au public et aux législateurs des métaphores qui leur montreront l’intérêt de libérer le Cyberespace ». Cette fondation, tout comme la Quadrature du Net qui propose des documents en français sur ces problèmes, continue ce travail jusqu’à ce jour.

Même si l’Internet semble fonctionner de façon invisible, il a été construit avec des valeurs d’égalité et d’ouverture. Et si son utilisation fait émerger des problèmes économiques et politiques, il nous appartient en tant que cyber-citoyens de les résoudre en protégeant ces valeurs. Plus que jamais, des législateurs et des intérêts privés tentent d’en prendre le contrôle. Chacun peut influencer en bien et protéger le cyberespace, car c’est notre richesse commune.

Cet article a été publié en premier dans «Courants, le journal des étudiant-e-s de l’Université de Genève» No. 146 en Mars 2011.

La journée Ada Lovelace

Le 7 octobre prochain, le «Ada Lovelace Day» célébrera, comme chaque année, les femmes actives dans le domaine des sciences et de la technologie. À cette occasion, chaque blogueur est invité à évoquer une de ces femmes, qui a eu un impact sur son parcours personnel. Il peut ensuite poster l’URL du billet sur

Ada Lovelace

Ada Lovelace by Margaret Carpenter, 1836Ce jour particulier a été baptisé du nom d’Ada Lovelace. Célèbre comtesse passionnée de mathématiques, elle a traduit et annoté une description de l’ordinateur à vapeur de Charles Babbage. Elle a compris très vite le potentiel des ordinateurs au delà des mathématiques, pour le dessin et la musique. Ses notes contiennent, entres autres, le premier algorithme publié. Beaucoup d’historiens des technologies la considèrent donc comme le premier programmeur informatique de l’histoire. Je vous avais déjà parlé de l’ordinateur à vapeur de Charles Babbage en évoquant le « Plan28 » dans un précédent billet. Vous pouvez vous y référer pour plus de détails.

Événement à succès

Cet événement est organisé par Suw Charman-Anderson, aujourd’hui consultante en logiciels sociaux et auteur. Avant de créer le «Ada Lovelace Day», elle fonde le «Open Rights Group», un groupe de défense des libertés en ligne, en 2005. Suw vient aussi de publier un roman anglophone, Argleton, disponible gratuitement sur son site.

Le premier Ada Lovelace Day date du 24 mars 2009. Plus de 1200 personnes ont consacré un billet à une femme scientifique ou technologue cette année là. La journée de célébration a attiré l’attention de divers médias tels que BBC News, The Guardian, et Computer Weekly. En 2010, le même succès s’est représenté. Cette année, la date change pour mieux accommoder les calendriers universitaires. En plus d’être un événement en ligne, une journée spéciale sera organisée à la Société Britannique d’Informatique, à Bletchley Park dans la banlieue londonienne, ainsi qu’aux États-Unis en Virginie. D’autres villes européennes verront la création de telles rencontres dans les années à venir.

En attendant, blogueuses, blogueurs, commencez à réfléchir à une femme du domaine des sciences et de la technologie qui vous inspire. Écrivez un billet, postez-le ce jour là et mettez en l’adresse sur

L’industrie informatique des années soixante

Bell Labs dans les années soixantes

Cette collection de photographie appartenant à Lawrence Harley Luckham nous renvoient dans l’industrie informatique de la fin des années soixante. À cette époque, les ordinateurs étaient des grosses armoires pleines de boutons et de cadrans posées loin des bureaux.

Les photos exhalent un délicieux parfum et les légendes sont fascinantes. Elles nous apprennent, par exemple, que les peintures accrochées dans les bureaux ont été peintes par les employés eux-même pour économiser de l’argent. Les données étaient entrées dans les terminaux et vérifiées sur papier. Les collections de bandes magnétiques sur lesquels les données étaient stockées devaient être nettoyées régulièrement. Les centres de données d’aujourd’hui n’ont plus rien à voir avec ceux des années soixante. On se demande à quoi ressembleront les laboratoires technologiques dans quarante ans…

Plan 28: construire un ordinateur mécanique

Charles Babbage était un mathématicien anglais du dix-neuvième siècle. Remarquant de nombreuses erreurs dans les tables astronomiques calculées par les mathématiciens et utilisées notamment pour la navigation maritime, il décide de créer une machine capable de calculer et imprimer des tables sans erreurs. La société royale des sciences accepte de financer son projet.

Malheureusement, le travail ne sera pas achevé de son vivant. En fait, il faudra attendre jusqu’en 1991 pour qu’une équipe mandatée par le musée londonien des sciences construise le cœur de la machine puis encore sept ans pour l’imprimante.

Babbage's Difference Engine

En 1837, Charles Babbage se fixe un objectif encore plus ambitieux et publie un article scientifique dans lequel il argumente en faveur de la construction d’une machine analytique programmable: un ordinateur avant la lettre. Il en dessine et redessine les plans jusqu’à sa mort. Malheureusement, là encore, sa machine analytique ne sera peut-être jamais construite.

À moins que John-Graham Cunningham ne réussisse son projet appelé “Plan 28”. Cet informaticien émérite se propose de mettre en place une organisation à but non-lucratif pour (1) numériser les plans de Babbage, (2) construire un modèle informatisé en 3d et (3) finalement construire la machine. S’il y parvient, les recherches sur Babbage auront fait un bond en avant et il aura prouvé qu’il est possible d’être 100 ans en avance sur son temps. Ainsi, espérons que la fondation qu’il va créer recevra des dons et du soutien logistique.