Accueil Dernières minutes Sulli deals et Bulli Bai | Quelle part de responsabilité doit prendre...

Sulli deals et Bulli Bai | Quelle part de responsabilité doit prendre GitHub ?

0

Horreur, colère, incrédulité et résignation. Ensuite, juste une colère constante.

C’est ce qu’a ressenti Hana Mohsin Khan, un pilote commercial, après avoir appris pour la première fois qu’elle avait été « mise aux enchères » sur l’application Sulli Deals, hébergée sur GitHub, une plateforme américaine de collaboration et d’hébergement de logiciels, en juillet 2020. « Avant, j’étais une personne très heureuse. Tout cela est arrivé parce que je suis musulmane et que je suis une femme qui a une opinion », a-t-elle déclaré à Moneycontrol.

Après six mois d’agonie, alors qu’elle était prête à laisser tout cela derrière elle et à repartir de zéro en 2022, une autre application, Bulli Bai, a fait surface, et plus de 100 femmes y ont été vendues aux enchères le 1er janvier. « Je ne faisais pas partie de Bulli Bai, mais cela fait remonter des souvenirs et le sentiment que cela ne s’arrêtera jamais. Il n’y a pas de progrès, pas d’espoir », a-t-elle déclaré.

Ce qui l’irrite vraiment, ainsi que plusieurs autres femmes et militants des droits numériques, c’est l’absence totale de responsabilité de GitHub, où les deux applications étaient hébergées. « Les plateformes comme GitHub doivent prendre leurs responsabilités. Nous avons besoin de plus de sécurité et de contrôles en place et il est grand temps de faire quelque chose à ce sujet », a déclaré M. Khan.

Le récent incident a mis en lumière la modération, ou l’absence de modération, sur GitHub, propriété de Microsoft, et le besoin de transparence dans la manière dont ces problèmes sont traités.

Il y a près de 73 millions de développeurs sur GitHub, et 16 millions les rejoindront rien qu’en 2021. La plateforme compte environ 5,8 millions d’utilisateurs en Inde, l’un de ses marchés à la croissance la plus rapide.

Chaque jour, des centaines de développeurs téléchargent des applications, les modifient et collaborent avec leurs homologues du monde entier. Comme l’explique un chercheur en sécurité basé à Bengaluru, contrairement aux images ou aux textes, la plupart des informations présentes sur la plateforme sont en Java et dans d’autres langages de programmation. La programmation de bon nombre de ces applications est publique, ce qui rend la plateforme vulnérable aux problèmes de modération, non seulement en Inde mais dans le monde entier.

Par exemple, Sami, développeur web, a expliqué sur Twitter comment l’application Bulli Bai utilisait le même code source que Sulli Deals : « Celui qui a créé la page GitHub ‘SulliDeals’ est aussi la même personne qui a créé la page github ‘BulliBai’ maintenant. Il semble qu’ils aient reformulé les textes de la page, mais il s’agit du même code, de la même fonction avec le nom ‘sulli’ utilisé en code. »

Raj Pagariya, avocat spécialisé dans les technologies et partenaire des relations avec les clients, The Cyber Blog India, estime qu’il existe un problème plus large concernant les efforts déployés par la plateforme pour s’assurer que les incidents qui violent ses directives communautaires ne se répètent pas, comme c’est le cas avec Sulli Deals et Bulli Bai.

« Quand cela arrive une fois, c’est compréhensible. Mais quand ça arrive deux fois, il y a un problème. Le fait que la plateforme n’ait pas fait suffisamment d’efforts pour s’assurer qu’il n’y ait pas de répétition est inquiétant », a-t-il déclaré.

Pas une fois mais deux fois

En juillet 2021, près de 80 femmes ont été mises aux enchères sur Sulli Deals, hébergé sur GitHub.

Lire aussi:   Après la Californie, New York va interdire les voitures à essence d'ici 2035 ; seuls les véhicules électriques seront autorisés

Les jours suivants, des FIR ont été déposées dans l’Uttar Pradesh et à New Delhi. Mais l’enquête n’a pas progressé jusqu’à présent. Khan, qui avait déposé la plainte à Noida, a expliqué que même après des suivis répétés, aucune mesure n’a été prise et que de nombreuses victimes ont abandonné.

Obtenir la coopération de GitHub dans le cadre de procédures pénales est également un défi.

Anushka Jain, avocate associée, Surveillance et Transparence, Internet Freedom Foundation, a expliqué que pour obtenir des informations pour des procédures pénales à partir de GitHub, il faut passer par l’accord MLAT entre l’Inde et les États-Unis. Un traité d’entraide judiciaire (TEJ) est un accord conclu entre deux ou plusieurs pays dans le but de recueillir et d’échanger des informations dans le but d’appliquer des lois publiques ou pénales.

Juste au moment où les choses se calmaient, Bulli Bai, une autre application hébergée sur Github, a fait surface le 1er janvier, avec des photos de 100 femmes mises aux enchères. L’application a été retirée immédiatement.

Cependant, contrairement à la dernière fois, le retour de bâton a été énorme. Une plainte déposée à Mumbai a donné lieu à une action rapide de la police et des politiciens sont intervenus. Jusqu’à présent, quatre arrestations ont été effectuées, toutes des étudiants – un étudiant en ingénierie de Bengaluru, deux personnes d’Uttarkand et un homme d’Assam.

Si l’action rapide des forces de l’ordre est encourageante, beaucoup ont souligné que cela ne résout pas le problème de fond, à savoir la manière dont GitHub traite ces questions.

Une question de modération

« Si vous regardez des plateformes comme GitHub, elles sont assez grandes en taille et pour toute grande plateforme, la modération du contenu est un combat », a déclaré Pagariya.

« Mais même si vous êtes grand, on s’attendrait à ce que la plate-forme fasse quelque chose pour empêcher que les affaires de Sulli se produisent une deuxième fois. Mais ce n’est pas ce qui s’est passé ; seulement 6 mois plus tard, le problème est revenu sur le tapis », a-t-il déclaré.

Padmini Ray Murray, fondatrice de Design Beku, un collectif de tech et de design, a déclaré à Moneycontrol que lorsque deux applications utilisent un code similaire, la plateforme aurait dû avoir des vérifications afin qu’une autre application ne soit pas créée. « Mais ils n’ont rien fait, ou s’ils l’ont fait, nous ne savons pas ce que c’est. Il est nécessaire de faire preuve de plus de transparence », a-t-elle déclaré.

Akancha S Srivastava, fondateur d’Akancha against Harassment, qui travaille avec les forces de l’ordre sur la cyberintimidation, a déclaré : « Pour les plateformes, le simple blocage ne suffit pas. Ils ont une responsabilité et doivent prendre des mesures préventives. La réponse de GitHub doit également être améliorée. »

Selon les experts, il est grand temps que les plateformes disposent de meilleurs outils de modération et deviennent plus transparentes sur la manière dont elles répondent à ces préoccupations.

Modération du contenu

La modération du contenu en général est une pente glissante. Mais contrairement aux plateformes de médias sociaux, où elles doivent se conformer aux règles et réglementations indiennes, GitHub se trouve dans une zone épineuse.

En vertu des nouvelles règles informatiques, tous les intermédiaires importants des médias sociaux doivent avoir un responsable des griefs, de la conformité et des zones nommé en Inde. Qu’il s’agisse de Facebook ou d’applications de médias sociaux locales, toutes disposent désormais d’agents locaux chargés de coopérer avec le gouvernement et auxquels les utilisateurs peuvent s’adresser pour présenter leurs doléances.

Lire aussi:   Le risque d'infection par le Covid-19 pourrait augmenter en raison du stress, selon une nouvelle étude

Mais GitHub ne dispose pas d’agents similaires en Inde et les victimes doivent emprunter la voie légale pour obtenir des informations de la plateforme.

Récemment, un étudiant en droit, Amar Banka, a envoyé à GitHub un avis juridique sur la question. Il a publié sur Twitter la réponse qu’il a reçue de GitHub. « Les responsables de l’application de la loi étrangers qui souhaitent demander des informations à GitHub doivent contacter le bureau des affaires internationales de la division criminelle du ministère de la Justice des États-Unis. GitHub répondra rapidement aux demandes émises par un tribunal américain par le biais d’un traité d’assistance juridique mutuelle (MLAT) ou d’une commission rogatoire. »

Un militant des droits numériques, qui n’a pas souhaité être nommé, a déclaré que le MLAT n’est qu’une façade et ne fonctionne pas dans la plupart des cas.

Moneycontrol a envoyé des questions détaillées à GitHub sur la modération, le respect des lois locales, son responsable des griefs et de la conformité en Inde, et sur le niveau de coopération de la plateforme avec le gouvernement.

GitHub n’a pas répondu aux questions spécifiques mais a partagé une déclaration : « GitHub a des politiques de longue date contre le contenu et la conduite impliquant le harcèlement, la discrimination et l’incitation à la violence. Nous avons suspendu le compte d’un utilisateur à la suite d’une enquête sur des rapports faisant état de telles activités, qui violent toutes nos politiques ».

Certes, GitHub a défini des politiques restreignant les contenus illicites, diffamatoires et abusifs visant un individu ou un groupe, comme ce fut le cas pour Sulli Deals et Bulli Bai. La plateforme retire les contenus lorsqu’ils violent les directives de la communauté et sont signalés.

Cela soulève la question de savoir si la modération du langage de programmation est la meilleure solution, étant donné que ce n’est pas la première fois que l’entreprise a des problèmes de modération.

Historique des problèmes de modération

En 2014, l’Inde avait bloqué 32 sites, dont GitHub, pour avoir hébergé des contenus liés à ISIS. La plateforme a fait l’objet d’un examen minutieux à l’échelle mondiale pour avoir hébergé des codes permettant de créer des « deepfakes ». Les Deepfakes peuvent être utilisés pour créer des vidéos pornographiques non consensuelles, ce qui constitue une violation. La plateforme a également été censurée dans d’autres pays, notamment en Chine et en Russie.

Alors que les victimes ont demandé une meilleure modération, cela soulève des questions quant à savoir jusqu’où une plateforme doit aller pour modérer le contenu.

Le chercheur en sécurité cité plus haut, qui travaille pour une licorne basée à Bengaluru, a souligné que la modération active d’un code hébergé par des millions de développeurs sera un défi puisque la plupart des informations sur la plateforme sont en Java et dans d’autres langages de programmation. « Donc, pour le modérer, il faut aller derrière chaque projet pour vérifier s’il viole les politiques ou non. Lorsqu’il y a des centaines de milliers de codes à examiner, il n’est pas possible de modérer chacun d’entre eux », a déclaré le chercheur.

Lisez toutes les dernières nouvelles, les nouvelles de dernière minute et les nouvelles sur le coronavirus ici.

Article précédentCoutinho prêté à Aston Villa avec option d’achat
Article suivantNovak Djokovic, une défense « inattendue » : Nick Kyrgios vient à son secours