La Nasa a même diffusé dans l’espace des messages pour tenter d’établir une communication, envoyé des sondes portant des messages précisant l’emplacement de la Terre dans le système solaire ainsi que les caractéristiques génétiques principales de la race humaine.
Chose qui, aux yeux de certains, et notamment de l’éminent physicien Stephen Hawking, est d’une inconséquence et d’une irresponsabilité sans nom… Parce que crier notre présence sous tous les toits pourrait bien, selon lui, mettre l’humanité tout entière en grand danger !
Via clubic.com
Les extraterrestres existent-ils ? Cette question est loin d’être aussi triviale que vous ne pouvez le croire, ni d’être réservé aux illuminés, ni aux gens bourrés dans les bars le samedi soir. Ainsi, le mathématicien italien Enrico Fermi, célèbre notamment pour avoir formulé le paradoxe qui porte son nom, s’interrogeait sur les signes, ou plutôt l’absence de signes de vie extraterrestre. Si l’on sait que le système solaire est relativement jeune par rapport au reste de l’Univers, et qu’on considère qu’une espèce ayant maîtrisé le voyage interstellaire ne fera que se développer de manière exponentielle en se répandant dans l’Univers… comment se fait-il que ces espèces plus avancées ne nous aient pas encore contactées ?
D’autres considèrent au contraire que l’hypothèse la plus improbable, statistiquement, serait bien… la non-existence des extraterrestres. En effet, si l’on s’arrête deux minutes et que l’on considère que l’Univers est pratiquement infini, qu’il comporte un nombre inimaginable de planètes dont nous ne connaissons encore qu’une infime fraction… Alors, il serait bien incroyable que notre petite planète perdue aux confins de la Voie Lactée soit la seule qui ait développé la vie, non ?
À partir de là, certains physiciens, et même des anthropologues se sont penchés sur une tout autre question : comment, et par quelle voie devons-nous procéder pour établir un premier contact ? Est-il seulement bien sage de vouloir à tout prix établir ce contact, n’avons-nous pas plutôt intérêt à nous faire tout petits, le plus discret possible ?
Eh bien, c’est ce que pense l’éminent physicien Stephen Hawking, que beaucoup considèrent comme l’esprit le plus brillant du monde actuel. Pour lui, nous devrions arrêter immédiatement de crier notre présence dans l’univers à tout va… Sous peine de nous attirer potentiellement de gros ennuis.
Cet avertissement, Hawking l’a rendu public dans un nouveau film diffusé sur internet, « Stephen Hawking’s Favourite Places ».
« Plus je vieillis, et plus je suis absolument convaincu que nous ne sommes pas seuls dans l’Univers, explique le chercheur. Après avoir passé toute une vie à me poser des questions, j’espère pouvoir aider l’effort global qui tend à ce but. (…) Le Breakthrough Listen project scanne des milions d’étoiles en recherche d’un quelconque signe de vie, et nous pourrions recevoir un jour un signal d’une exoplanète potentiellement habitée, comme Gliese 832c par exemple. Dans ce cas, nous devrions absolument nous garder d’y répondre, sous quelque prétexte que ce soit. »
DR
Le Breakthrough Listen project dont parle Hawinkg, pour mémoire, c’est ce vaste programme visant à passer au peigne fin le moindre signal émanant des étoiles les plus proches, dans l’espoir d’intercepter un message ou une quelconque trace de la présence d’une vie intelligente.
Paradoxalement, si Hawking fait partie des scientifiques pour qui la découverte d’une intelligence extraterrestre fait partie des défis les plus importants pour l’Humanité, il est également l’une des critiques les plus virulentes contre toute tentative de contact direct et de communication avec ces aliens potentiels. Pour lui, cela serait faire courir inutilement un risque grave à la race humaine tout entière, car une civilisation alien distante, beaucoup plus développée que nous, pourrait très bien nous considérer comme inférieurs, faibles et donc faciles à conquérir.
Comme les Conquistadores Espagnols avec les Amérindiens
« Si d’autres êtres sont capables de recevoir nos signaux, de les comprendre et de déterminer d’où ils proviennent, alors ils seraient beaucoup plus avancés techniquement parlant que nous. Et s’ils sont d’une intelligence supérieure, s’ils ont des millions d’années d’avance sur nous, ils pourraient très bien, de leur point de vue, nous considérer comme n’ayant pas plus de valeur que de simples bactéries », explique encore Hawking.
Stephen Hawking utilise souvent l’exemple de la conquête des Conquistadores espagnols lors de la découverte des Amériques pour montrer les dangers potentiels de faire se rencontrer deux civilisations très différentes pour la première fois. Lorsque deux civilisations qui se sont développées sans aucun contact l’une avec l’autre, et dont l’une possède une force technique et militaire amplement supérieure à l’autre se rencontrent, la plus « faible » risque fortement de finir massacrée, anéantie, ou réduite en esclavage.
Terminator 2 @ Carolco Pictures / StudioCanal
Un autre risque potentiel :le développement croissant de l'Intelligence Artificielle qui pourrait vite surpasser l'Homme...
L’invasion d’extraterrestres n’est pas le seul gros risque potentiel pour le futur de l’humanité, selon Hawking. Un autre thème cher à la littérature de science-fiction que le célèbre physicien juge parfaitement crédible (et pour tout dire, menaçant) est la domination de l’humanité par l’intelligence artificielle, dans le cas où des machines échappent au contrôle de leurs créateurs.
Pour Stephen Hawking, c’est une hypothèse tout à fait crédible et possible. Ainsi, lors d’une conférence à l’Université de Cambridge il y a quelques semaines, le chercheur a déclaré que l’intelligence artificielle sera « soit la meilleure, soit la pire chose jamais arrivée à l’Humanité ».
Selon lui, cette crainte est justifiée par le fait qu’avec le développement croissant en matière de programmation, l’intelligence artificielle est sur le point d’avoir la faculté « d’apprendre » des choses par elle-même. En fait, c'est même déjà le cas : Google a déjà lancé avec succès des prototypes fonctionnelscapables de s'auto-instruire !
Or, si l’intelligence artificielle possède la capacité d’apprendre, il n’y aura plus de limites à son développement, et elle risque de devenir de plus en plus intelligente, de manière exponentielle.
Les humains, eux, doivent compter sur l’évolution naturelle pour se perfectionner au fil des générations, ce qui est, il va sans dire, un processus long... Mais les machines n'ont pas cette limitation-là.
Au contraire : l’intelligence artificielle se reprogrammera constamment, devenant de plus en plus perfectionnée, augmentant ses facultés de plus en plus vite, pour dépasser rapidement le simple entendement humain. Les humains, limités par leur essence biologique et animale, seraient complètement hors compétition et seraient très vite supplantés par les machines.
Voilà. Donc entre l’invasion de robots tueurs et être réduits en esclavage par des aliens, il vaut peut-être mieux qu’on se tienne à carreau pour l’instant en attendant d’en savoir plus… Non ?