Une intelligence artificielle capable de déterminer l’orientation sexuelle à partir d’une simple photo

Michal Kosinski et Yilun Wang, deux chercheurs de Stanford, en Californie, viennent de publier un article dans le « Journal of Personality and Social Psychology », affirmant avoir conçu un algorithme capable, à partir de photos, de déterminer si une personne était homosexuelle ou non, avec 81 % de réussite pour les hommes et 74 % pour les femmes. Des chiffres qui grimpent respectivement à 91 % et 83 % quand cinq photos de la personne sont présentées au programme, tandis que le cerveau humain piétine autour de 61 % et 54 % de réussite.

« Nous prouvons que les visages contiennent bien plus d’informations sur l’orientation sexuelle que ce que le cerveau humain peut percevoir et interpréter », écrivent-ils.

Les hommes gays par exemple, auraient ainsi tendanciellement des traits plus féminins, avec « des mâchoires et mentons plus petits, des sourcils plus fins, des nez plus longs, des fronts plus larges ». Et ces différences vont « au-delà de la morphologie », puisque selon les résultats de leur étude, « les homosexuels mâles ont moins de barbe » et « les lesbiennes tendent à porter moins de maquillage, ont des cheveux plus sombres et portent des vêtements moins décolletés ». Ils notent également que, « conformément à l’association entre les casquettes de baseball et la masculinité dans la culture américaine, les hommes hétérosexuels et les lesbiennes ont tendance à en porter ».

Des conclusions qui renforcent donc « la théorie hormonale prénatale », selon les chercheurs, pour qui « l’orientation sexuelle se façonnerait déjà dans le ventre de la mère ». Ce serait d’ailleurs « un excellent argument contre tous les groupes religieux et autres démagogues », qui pensent que l’homosexualité est un choix voire qu’on pourrait « en guérir ».

Pour parvenir à ces résultats, leur programme, basé sur un réseau de neurones artificiels, s’est « entraîné » sur 35 000 photos de 14 000 hommes et femmes hétérosexuels et homosexuels, issues d’un site de rencontres américain. Aucun critère n’a été donné à la machine qui a « appris » à distinguer les hétérosexuels des homosexuels à partir de ses propres observations.

Ce travail présente toutefois des biais et limites importants. Dans la presse américaine, on note que l’expérience n’a été menée que sur des « blancs » et qu’elle pourrait être faussée car on ne publie pas n’importe quelle photo sur un site de rencontre; ou on se demande où sont « escamotés » les bisexuels ou transgenres.

« L’article est basé sur une vision absolument binaire, essentialiste et exclusive des orientations sexuelles humaines : t’es gay/lesbienne ou tu ne l’es pas », souligne en outre le sociologue français Antonio Casilli.

« Standford devrait se distancier de cette science poubelle plutôt que de prêter son nom et sa crédibilité à une recherche dangereusement biaisée », écrit dans un communiqué, Ashland Johnson, un des responsables de la Human Rights Campaign, dénonçant un travail qui « menace la sécurité et la vie privée aussi bien des LGBT que des non-LGBT : Imaginez un instant les conséquences potentielles si cette recherche biaisée était utilisée pour soutenir les efforts d’un régime brutal d’identifier et/ou persécuter les personnes qu’il pense être gays. »

D’autant que l’homosexualité reste en effet réprimée dans au moins 75 pays.

« Comme tout nouvel outil, s’il tombe dans de mauvaises mains, il peut être utilisé à des fins illégales », c’est effectivement vraiment inquiétant, a réagi Nick Rule, professeur de psychologie à l’Université de Toronto.

Notons cependant que les chercheurs avaient anticipé les critiques. Personne ne peut utiliser leur algorithme, plaident-ils, et c’est justement pour en « dénoncer les dangers » qu’ils l’auraient créé.

« Nous avons pensé qu’il y avait un besoin urgent que nos législateurs et les communautés LGBTQ soient informés des risques auxquels elles font face. Les entreprises tech et les gouvernements sont tout à fait conscients du potentiel des outils de vision par ordinateur. Nous pensons que les gens doivent connaître ces risques afin qu’ils puissent ainsi prendre des mesures préventives. […] Nous n’avons pas créé un outil qui nuit à la vie privée, mais plutôt qui montre que des méthodes basiques et très utilisées représentent de sérieuses menaces pour la vie privée. »

En mars dernier, lors du festival SXSW, à Austin, consacré aux nouvelles technologies, la chercheuse de Microsoft, Kate Crawford, avait déjà prévenu : « La physiognomonie a permis de justifier des choses horribles par le passé, comme l’esclavage aux Etats-Unis, où ce qu’ont fait les nazis contre les juifs. Des start-up aujourd’hui se font de l’argent en se basant sur ce principe. Je trouve que c’est très inquiétant, que ces théories du passé ressurgissent avec ces technologies. Alors même qu’on assiste à un retour des autoritarismes. »