Fausses prémisses du transhumanisme

Dr Laurent Alexandre (@dr_l_alexandre) parlait d’idées transhumanistes en entretien dans Le Matin. On pourrait regarder ces idées comme une curiosité sensationnaliste sans grande importance. Malheureusement, elles sont très ancrées dans la culture de la Silicon Valley.  Certains des fondateurs et des cadres des plus grandes entreprises de technologie qui sont installées là-bas les mettent ouvertement en pratique. Par exemple, Peter Thiel, un des milliardaires les plus détestables du monde, compte bien rallonger sa vie. Même si pour cela, il doit acheter et se faire transfuser le sang de personnes plus jeunes et bien bien moins fortunées que lui.

Si le Dr Laurent dit être “ni pour ni contre” le transhumanisme et chercher à provoquer un débat de société, il se place complètement dans le cadre idéologique des promoteurs de l’annihilation de l’être humain. C’est une posture étrange.

“Les robots feront toujours mieux le travail qu’une personne qui a 100 de QI” nous dit le Dr Alexandre dans son entretien avec Le Matin. La valeur de l’être humain ne réside pas dans sa capacité à produire des biens et des services. Ne pas le reconnaître rend totalement ridicule l’affirmation selon laquelle le transhumanisme serait “une idée de gauche” comme il le prétend plus loin.

C’est une implacable logique de marché et de concurrence qui sous-tend toutes les réflexions dans le courant de pensée transhumaniste. Pour le Dr Alexandre, la disparition de l’être humain non augmenté ne “serait pas une perte”. On ne peut que donner raison au philosophe Bernard Stiegler lorsqu’il dit “Le transhumanisme est un néodarwinisme dangereux”.

Pour que le transhumanisme aie le moindre sens, il faut absolument mettre des œillères anarcho-capitalistes et réductionnistes. Il faut:

  • considérer que les forces du marché doivent –par nécessité ou par choix– tout régir sans entrave; et/ou que
  • les technologies sont mues par leurs dynamiques propres sans s’imprégner des valeurs de leurs concepteurs; et aussi
  • réduire l’humain à la seule mesure du QI et à sa force de production marchande pour pouvoir considérer sa disparition comme une perte acceptable.

Bien sûr, ces trois assertions sont fausses et dangereuses.

L’automatisation et l’utilisation croissante d’intelligences artificielles vont considérablement réduire le nombre d’emplois rémunérés dans notre ordre économique et social actuel. Pourtant, avant de faire des changements irréversibles dans notre biologie et faire une croix sur l’être humain, nous devons très sérieusement envisager de faire évoluer l’ordre social, économique et technologique dans une nouvelle direction.

Should Academics Try Twitter?

Yes. Absolutely. According to this tongue-in-cheek chart. No, but seriously. You absolutely should  — at least — try it.

(Thanks, @amisamileandme for forwarding this chart to me)

At the beginning of August 2016, a Guardian article written by an anonymous PhD student attacked the use of social media for academic work. It was published under the patronising title “I’m a serious academic, not a professional Instagrammer”. It sparked a healthy and very interesting debate on Twitter under the hashtag #SeriousAcademic.

Many academics in various stages of their careers wrote tweets and articles contradicting this article. They mentioned many uses of social media for their work (as well as their social life and entertainment).

One of the most interesting and complete responses I’ve seen came from Jacquelyn Gill, an ice age ecologist at the University of Maine (Thanks, @kevinmarks for bringing it to my attention). Her two-tweet response and the discussions that ensued are worth a read.

Academics with blogs also reacted strongly.

Leigh Sparks (@sparks_stirling) from the Institute for Retail Studies, University of Stirling, offers My Serious Academic Use of Blogs and Twitter. This retail specialist summarizes lessons learned on the usefulness of social media to his career.

Dean Burnett (@garwboy), doctor of neuroscience, comedy writer and stand-up, parodies the original article. Doing so, he offers many links on the problems usage of social media in academia may address with I’m a non-serious academic. I make no apologies for this also on the Guardian platform. Social media provided him with alternative prospects since his field is oversubscribed.

Kevin Gannon (@TheTattooedProf), a history professor at Grand View University in Des Moines, Iowa offers a rebuke to the original article and deconstructs the notion of “serious academic” in I’ve Got a Serious Problem with “Serious Academics”.

Main benefits of a presence on social media for academics put forth by these articles and tweets are:

  • Sharing enthusiasm and supporting each other
  • Adding researchers to your network and create stronger ties which might lead to cooperation opportunities
  • Exchange sources and references which may be useful for research and/or funny.
  • Increase the circulation and readership of your work (books, peer-reviewed articles, blog posts, quotes in the press, etc.)
  • Increase the odds journalists will contact you for stories.
  • Have control of your online image and not depend on your institution’s staff web pages.
  • Using it as a back-channel for conferences and other events to get noticed by participants and organisers.
  • Promoting your field and providing expertise to the general public simply by inhabiting those online spaces and having your exchanges archived. For the Liberal Arts and Humanities, such a presence makes it easier to present our disciplines in a positive light outside of the frame of crisis / being set aside that has been pervasive in the media these last few years.

Social media is only a drag if you try to control too tightly. You have to find and/or define boundaries, yes. However, most academics who report seeing benefits use social media as humans first and foremost because that is how you can connect with people. That’s the charm of social media. Again, don’t take my word for it:

If you do social media like this, you’ll reap benefits and it won’t feel like yet another professional task. Putting on a mask is orders of magnitude more complicated than learn to inhabit those spaces as yourself.

There’s a range of openness, of course. It is a matter of personal style, how visible and likely you feel to attract unwanted attention from racists and misogynists.

One thing is for certain, trying to remain 100% on-brand on social media will exhaust you and make you come across as fake. You should be yourself, inhabit the online public space as best you can and try to be a good online citizen. As long as you let your passion and your expertise shine, you’re on the right track.

Done well, your online presence can be about work, show a bit of yourself and feel genuine while you maintain boundaries that seem clear and healthy to you. Clara Nellist’s Twitter feed is a great example. I follow her because particle physics is cool (and she seems nice). Although we don’t interact directly, her tweets are full of value and the occasional glimpse into her life as a postdoc makes her relatable. Tweets about her travels or some of her outside activities make it easy and fun to connect. For example, learning that she finished the 20 kilomètres de Paris and seeing her proud selfie put a smile on my face.

The more human you are the easier it will be to make genuine connections with other humans. That’s why it’s called social networking. You can find out all about this approach in Stephanie Booth’s one-hour talk entitled “Be Your Best Offline Self Online“. (She helps people get started and manage their online presence in one-to-one and one-to-many workshops. She’s nice and very knowledgeable. I met her through her blog.)

If you feel motivated to start on social media, I would advise you to start with Twitter: Messages are short, it is public by default, there is very little to misunderstand.

The London School of Economics and Political Science published “Five minutes with Patrick Dunleavy and Chris Gilson: “Blogging is quite simply, one of the most important things that an academic should be doing right now” on their IMPACT blog all the way back in 2012.

They also have a Twitter Guide that may be a bit dated as it is from 2011. More importantly though, they have a list of Twitter users active in the Humanities and Arts for you to follow.

Delayed reading and the pace of modern life

I can’t recall exactly how I became aware of Jessa Crispin’s work. Artists usually enter my consciousness through social media, interviews or recommendations from Maria Popova’s Brain Pickings blog. Jessa Crispin’s “The Dead Ladies Project” found its way to my wishlist three days after coming out. I must’ve started following her on Twitter at that point too. Even if I was aware of the book all the way back then, I’m only reading it now.

After finishing Molly Crabapple’s memoir in which her self-discipline and her quest for meaning shook me to actually write every day. The dull sadness of finishing a good book was starting to take hold. I knew I had to start “The Dead Ladies Project” right away. I pondered getting a physical copy but then the momentum would have been lost as I waited for the book to show up. So I am reading it on my tablet.

I wish I had started sooner. It always takes me that kind of time to come to a book, no matter how important it seems that I read it. My unread book pile gets shuffled and reshuffled as if the books want to be read in a certain order. This makes it very hard to connect with the conversation as it happens. The zeitgeist remains ever elusive. But then, I do not know that it makes a difference.

France has what they call the “rentrée littéraire”. Books come out all at once in September. There are more every year. It has therefore become impossible to read any significant portion of them. Not that I have tried. Of course, it’s the same online. Everyday seems to be a “rentrée littéraire”. Good long form magazine pieces come at you all the time through social media. It’s hard to discern what is important from what should be avoided.

We all have our own circles on social media and, therefore, we get different recommendations. It is freeing everyone to pursue their own interest but at the same time it is lonely. It is hard to find common ground with friends. I get a little ping of satisfaction when what I read during a particular week matches links in Ann Friedman’s newsletter (which I recommend) because I know a couple of my friends at least will have come across the pieces too.

There still are cultural moments, even if they concern fewer people at once, but they’re so fleeting as to be impossible to catch. Online life has a devilish pace. Even if you and your friends read something, will you have time to discuss it? A magazine piece, a book, a film is big on Twitter for a few hours and then, it drifts onto a pile: wishlists, read-later lists… to resurface again much later maybe or not at all.

Thoughts on the latest Twitter abuse piece

The Buzzfeed piece about Twitter abuse that makes the rounds since last Thursday proves to be a very interesting read. The way the abuse problem has been left to fester is infuriating. So much so that while reading I took notes. Notes laced with profanity. Here are a few thoughts.

Free speech radicalism is an easy extremist tenet to hold in many ways. First, it is often defended by people who don’t know abuse at all. They, therefore, don’t have to make any sacrifices for this radical belief of theirs. Second, it is — in theory — a steadfast policy that protects the company from liabilities. They can then say that they’re a utility and don’t make content decisions.

It stems, however, from a weird idea of free speech. Free speech is great. I wouldn’t want the government to silence me but I want to be held accountable for the shit I say. Free speech radicals seem to have another definition. To many of them, free speech as being allowed to say whatever you want, often without suffering any consequences. Allowing people to be protected from the consequences of shitty actions and shitty words is not a moral imperative. It creates a toxic environment where a few assholes can police the speech of all the others by unleashing barrages of abuse and threats. It doesn’t help foster more productive debates. Just the opposite.

Yet, once people accept something needs to be done, the search for the ‘perfect solution’ begins… This search lead to paralysis as Vivian Schiller is reported as saying in the piece. Extremists always ask for a perfect solution before letting go of their own problematic one. Always seeking to swap an extremism for another. But that’s not how the social space works, that’s not how humans function and communicate. There needs to be moderation in every sense of the word. We need kind and intelligent judgment calls and concessions. There needs to be consistency obviously but no solution will ever be perfect.

Jack Dorsey is quoted as saying “No employee should ever be in the position of having to decide, subjectively, what qualifies as free speech and what does not”. This makes me doubtful that this problem will ever be mitigated. It will always come down to human judgment whether the judgment of a moderator or the judgment of an engineer designing an algorithm. Stress cases will always arise where the meaning of free speech will need to be discussed. Putting the burden completely on the users to moderate is again non-committal safe in the sense that investors might not punish the company and it won’t unleash lawsuits but it won’t fix the problem that for a vast majority of users, being on Twitter is very tiring work, an energy drain and often even a safety concern.

Large organizations all have things they’d rather not discuss (*cough* web governance *cough*), power struggles they’d rather not address, ambiguities that are preserved even if they hurt the business because it is believed that somehow these discussions would never end and distract everyone. I firmly believe leaders should encourage these discussions nonetheless. Especially in this case.

 

Happy Belated Ada Lovelace Day

I pride myself in being reasonably knowledgeable in the history of sciences (for an English major, I mean). Hence it is a little shameful and revolting not to be able to find a historical figure to talk about for Ada Lovelace Day and miss the deadline. It tends to show that Ada Lovelace Day remains necessary as a reminder as well as a celebration. But there is another problem, science, technology, engineering and mathematics are so pervasive that their boundaries are blurred now. Who’s to say what is in and what is out?

Recent experiences in user support have lead me to think more about a former client who inspires me. Kelly Hungerford, community manager at Paper.li, has a passion for people. She helped me produce what was, until then, my best work. These articles are still on their Community Blog.  She has incredible insights into the challenges and motivations of the service’s users. I try my best to emulate the qualities that make her so in my own work.

I always knew support and community management weren’t as effortless as she made them seem. Yet, I didn’t get the full picture until I was confronted with users all the time in my own job. Getting people to adopt software is a constant challenge. Even if the tool is good, it takes patience to get them to invest in learning and change their workflows.

Support is yet a different beast. Users who contact support are often on the brink of giving up on the tool. They expect to be let down because of all the terrible support out there. It takes an enormous amount of kindness and comprehension to get through to them — in addition to the technical expertise necessary to diagnose and fix their problems. When they get timely and effective support, their attitude changes. They feel listened to and invested. I saw that at Paper.li and I aim for the same thing — always.

Technology is about people, organisations and technics — in that order. It needs a lot of diversity among the people making it to strive. We need the insights of everybody to make it work. That is why I wish you a happy belated Ada Lovelace Day.

Science and Technology: Fueled by Their Own Internal Logic?

Brain Pickings published an omnibus of definitions concerning science. It was followed by an addition from Neil deGrasse Tyson. According to him, science is ingrained in our DNA because experimentation is the way little children inquire about the world.

His statement about originality is perhaps the most interesting:

If I discover a scientific idea, surely someone else would’ve discovered the same idea had I not done so.

It points to an internal logic of science. Discoveries rest less on the individuals designing the experiments but on some form of internal logic. This observation by Neil deGrasse Tyson is akin to ideas Kevin Kelly develops in What technology wants and in his TED Talk about the Techmium, a near living organism formed by our technological systems. If science and technology aren’t driven by individual contributions, are they driven by social and economic forces? or biology? a combination of all? or something else entirely?

Lise Meitner, physicienne.

Lise Meitner (1878-1968) a fourni, avec son neveu, la première explication théorique de la fission nucléaire. Le comité du prix Nobel a ignoré sa contribution en décernant le prix Nobel de chimie à Otto Hahn pour sa découverte de la fission des noyaux lourds en 1944.

Lise Meitner

Avant le centenaire de la théorie de la relativité restreinte en 2009, je n’avais jamais entendu parler de cette femme. Certains documentaires célébrant le centenaire de e=mc2 racontent son histoire. Pourquoi attendre de célébrer Albert Einstein pour parler de Lise Meitner ?

En ce jour de célébration du rôle des femmes dans les sciences, intéressons-nous un peu à elle. Lise Meitner entre à l’université de Vienne en 1901. La physique la passionne. Après son doctorat, elle entre à l’Institut Kaiser Wilhelm à Berlin et publie d’importants résultats à la fois seule et en collaboration avec le chimiste Otto Hahn.

Enrico Fermi s’intéresse, dès 1934, à la création d’isotopes radioactifs artificiels par bombardement de neutrons lents. Ses découvertes posent des problèmes théoriques que Lise Meitner, Otto Hahn et Fritz Strassmann s’emploieront à résoudre. Malheureusement, l’annexion de l’Autriche par le régime nazi force Lise Meitner à s’enfuir vers la Suède à cause de ses origines juives.

Resté en Allemagne, Otto Hahn réussira à mettre en évidence le fait que l’uranium bombardé de neutron crée du baryum. Elle parviendra, avec son neveu Otto Frisch, à expliquer les résultats expérimentaux de Hahn mais sa contribution restera largement sous-estimée.

Sources

L’Internet et le cyberespace: un espace de liberté invisible et menacé

L’Internet est un outil précieux mais compliqué parce qu’en grande partie invisible et aujourd’hui menacé par des intérêts privés et des législations liberticides.

Il est bon de distinguer, premièrement, la définition technique d’Internet et, deuxièmement, l’espace métaphorique créé entre êtres humains sur le réseau qui englobe des aspects plus philosophiques.

Occupons-nous en priorité et brièvement de l’aspect technique. L’Internet est non seulement invisible mais aussi abstrait. Il s’agit d’un pacte décrivant la façon dont on peut transporter des données d’une machine à une autre. Ce pacte ne décrit ni le support de transport, ni la nature des données transportée. Si c’est numérique, c’est transportable. Internet est donc fondamentalement polyvalent et ouvert. En plus, tout le monde est libre de l’utiliser ce qui lui donne un caractère libertaire et égalitaire (voir aussi Un monde de bouts de Doc Searls et David Weinberger).

Sur le plan humain et philosophique, les réseaux informatiques ont permis l’émergence d’un nouvel espace social. Ainsi, William Gibson, auteur de science-fiction cyberpunk, a inventé le mot « cyberespace » pour le définir. Dans son roman dystopique Neuromancien, il le définit comme une « hallucination consensuelle » et « une représentation graphique de données extraites des mémoires de tous les ordinateurs du système humain ». Cette définition met l’accent sur la séparation entre le cyberespace et le monde réel mais d’autres penseurs ont utilisés le mot dans une acception moins négative. Dans les milieux activistes et universitaires, « cyberespace » évoque la nouvelle réalité d’un espace social immatériel né de la conjonction des systèmes informatiques, des moyens de télécommunication modernes et de leur utilisation par des êtres humains. L’existence du terme permet d’ouvrir une nouvelle réflexion.

Map of the Internet by Opte Project

Le cyberespace fait trembler sur leurs bases les concepts d’incarnation, de subjectivité, d’identité. En ligne, tout est question de choix. Parce que tout se passe par l’intermédiaire d’une machine, le bavardage textuel permet de s’abstraire de son corps. On peut facilement « parler » à des inconnus et ne pas se décrire ou mentir dans la description de son physique. On peut aussi fragmenter son identité en fonction du contexte en choisissant d’avoir, sur Amazon, un nom d’utilisateur différent de celui choisi sur FriendFeed par exemple. Sans nul doute, ces nouvelles libertés nous obligerons à repenser et à réajuster de nombreux concepts chers à notre culture. David Weinberger dans son « Small Pieces Loosely Joined: A Unified Theory of the Web » (2002) explore ces changements et leurs implications philosophiques avec une grande minutie et un optimisme rafraîchissant.

Malgré l’inconfort que ces bouleversements suscitent maintenant, il est très important de protéger ces caractéristiques du cyberespace parce qu’elles permettent à des groupes qui n’avaient jamais eu accès aux médias de masses d’être entendus. Dans sa présentation Comment les médias sociaux peuvent faire l’histoire, Clay Shirky explique comment les technologies de l’information et de la communication permettent à des activistes aussi bien américains que chinois ou iraniens de se coordonner et d’influencer positivement la marche de la démocratie. Pour que cela continue et devienne la norme, le caractère techniquement peu contraignant de l’Internet doit être préservé et les législations liberticides discutées actuellement dans de nombreux pays comme l’ACTA ou le filtrage de l’Internet doivent être stoppées.

En juin 1990 déjà, John Perry Barlow s’inquiétait des actions du gouvernement américain qui menaçait, par ses actes arbitraires, d’annihiler la liberté que les utilisateurs trouvent dans le cyberespace. À la fin de « Crime et perplexité », il annonce la création de la Fondation pour la Frontière Électronique, l’EFF pour « transmettre au public et aux législateurs des métaphores qui leur montreront l’intérêt de libérer le Cyberespace ». Cette fondation, tout comme la Quadrature du Net qui propose des documents en français sur ces problèmes, continue ce travail jusqu’à ce jour.

Même si l’Internet semble fonctionner de façon invisible, il a été construit avec des valeurs d’égalité et d’ouverture. Et si son utilisation fait émerger des problèmes économiques et politiques, il nous appartient en tant que cyber-citoyens de les résoudre en protégeant ces valeurs. Plus que jamais, des législateurs et des intérêts privés tentent d’en prendre le contrôle. Chacun peut influencer en bien et protéger le cyberespace, car c’est notre richesse commune.

Cet article a été publié en premier dans «Courants, le journal des étudiant-e-s de l’Université de Genève» No. 146 en Mars 2011.

La journée Ada Lovelace

Le 7 octobre prochain, le «Ada Lovelace Day» célébrera, comme chaque année, les femmes actives dans le domaine des sciences et de la technologie. À cette occasion, chaque blogueur est invité à évoquer une de ces femmes, qui a eu un impact sur son parcours personnel. Il peut ensuite poster l’URL du billet sur FindingAda.com.

Ada Lovelace

Ada Lovelace by Margaret Carpenter, 1836Ce jour particulier a été baptisé du nom d’Ada Lovelace. Célèbre comtesse passionnée de mathématiques, elle a traduit et annoté une description de l’ordinateur à vapeur de Charles Babbage. Elle a compris très vite le potentiel des ordinateurs au delà des mathématiques, pour le dessin et la musique. Ses notes contiennent, entres autres, le premier algorithme publié. Beaucoup d’historiens des technologies la considèrent donc comme le premier programmeur informatique de l’histoire. Je vous avais déjà parlé de l’ordinateur à vapeur de Charles Babbage en évoquant le « Plan28 » dans un précédent billet. Vous pouvez vous y référer pour plus de détails.

Événement à succès

Cet événement est organisé par Suw Charman-Anderson, aujourd’hui consultante en logiciels sociaux et auteur. Avant de créer le «Ada Lovelace Day», elle fonde le «Open Rights Group», un groupe de défense des libertés en ligne, en 2005. Suw vient aussi de publier un roman anglophone, Argleton, disponible gratuitement sur son site.

Le premier Ada Lovelace Day date du 24 mars 2009. Plus de 1200 personnes ont consacré un billet à une femme scientifique ou technologue cette année là. La journée de célébration a attiré l’attention de divers médias tels que BBC News, The Guardian, et Computer Weekly. En 2010, le même succès s’est représenté. Cette année, la date change pour mieux accommoder les calendriers universitaires. En plus d’être un événement en ligne, une journée spéciale sera organisée à la Société Britannique d’Informatique, à Bletchley Park dans la banlieue londonienne, ainsi qu’aux États-Unis en Virginie. D’autres villes européennes verront la création de telles rencontres dans les années à venir.

En attendant, blogueuses, blogueurs, commencez à réfléchir à une femme du domaine des sciences et de la technologie qui vous inspire. Écrivez un billet, postez-le ce jour là et mettez en l’adresse sur FindingAda.com

L’industrie informatique des années soixante

Bell Labs dans les années soixantes

Cette collection de photographie appartenant à Lawrence Harley Luckham nous renvoient dans l’industrie informatique de la fin des années soixante. À cette époque, les ordinateurs étaient des grosses armoires pleines de boutons et de cadrans posées loin des bureaux.

Les photos exhalent un délicieux parfum et les légendes sont fascinantes. Elles nous apprennent, par exemple, que les peintures accrochées dans les bureaux ont été peintes par les employés eux-même pour économiser de l’argent. Les données étaient entrées dans les terminaux et vérifiées sur papier. Les collections de bandes magnétiques sur lesquels les données étaient stockées devaient être nettoyées régulièrement. Les centres de données d’aujourd’hui n’ont plus rien à voir avec ceux des années soixante. On se demande à quoi ressembleront les laboratoires technologiques dans quarante ans…