Connexion
Abonnez-vous

Les données de plus de 100 000 utilisateurs de ChatGPT en vente sur le dark web

Les données de plus de 100 000 utilisateurs de ChatGPT en vente sur le dark web

Le 22 juin 2023 à 05h07

La plateforme Threat Intelligence de Group-IB a identifié dans les journaux de logiciels malveillants échangés sur les marchés illicites du dark web 101 134 appareils infectés par des « info stealers » et contenant des informations d'identification ChatGPT sauvegardées. 

Les logiciels malveillants de type « info stealers » collectent les cookies et informations d'identification enregistrées dans les navigateurs, numéros de cartes bancaires, portefeuilles cryptographiques, historiques de navigation et autres informations récupérées à partir des navigateurs installés sur les ordinateurs infectés, ou provenant de messageries instantanées et d'e-mails.

Group IB note que « les voleurs fonctionnent de manière non sélective » et que ce type de logiciel malveillant vise à infecter le plus grand nombre d'ordinateurs possible par le biais de l'hameçonnage ou d'autres moyens afin de collecter autant de données que possible.

Les « info stealers » sont ainsi devenus « une source majeure de données personnelles compromises », et les journaux contenant des informations compromises récoltées sont activement échangés sur les places de marché du dark web. Sont notamment commercialisées les listes de noms de domaines trouvés dans les journaux ainsi que les informations sur l'adresse IP de l'hôte compromis, ce qui facilite l'accès des attaquants ultérieurs : 

« Par défaut, ChatGPT stocke l'historique des requêtes des utilisateurs et des réponses de l'IA. Par conséquent, un accès non autorisé aux comptes ChatGPT peut exposer des informations confidentielles ou sensibles, qui peuvent être exploitées pour des attaques ciblées contre les entreprises et leurs employés. »

41 000 des appareils infectés l'ont été dans les pays d'Asie-Pacifique (dont près de 13 000 en Inde, et plus de 9 000 au Pakistan), 25 000 au Moyen-Orient et en Afrique, et 17 000 en Europe (dont près de 3 000 en France).

Group IB conseille aux utilisateurs de mettre en œuvre l'authentification à deux facteurs pour se prémunir de tout risque de compromission.

Le 22 juin 2023 à 05h07

Commentaires (16)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

Sur ce point OpenAI est à la ramasse totale. Je n’ai jamais trouvé de section dans le profil pour savoir comment modifier son mot de passe si besoin, et aucun MFA proposé nulle part.



A croire qu’en dehors de leur compétence sur les technologies de l’IA, c’est juste un stagiaire qui gère le front Web (ou leur modèle GPT, ce qui revient au même).

votre avatar

Ici, il est question de ChatGPT. Je n’en suis pas utilisateur, mais est-ce qu’OpenAI stocke des données ou des termes qui pourraient être utilisés à des fins malveillante sur une compte OpenAI ? Si oui, ça entre en effet dans le même cadre.

votre avatar

Il stocke l’historique des conversations. Suivant ce que tu as demandé, cela peut être utilisé à des fins malveillantes.

votre avatar

ChatGPT est un service opéré par OpenAI pour qui il faut un compte chez eux pour y accéder. Les comptes en question sont des comptes managés par OpenAI donc permettant aussi d’accéder aux API des autres solutions (Dall-E, GPT, etc), aux crédits associé, etc.



Dissocier ChatGPT et OpenAI sur la gestion du compte reviendrait à dire qu’une adresse Gmail n’est pas gérée par un compte Google. C’est un raccourci que je trouve regrettable car la surface d’attaque est assez large en cas de compromission.

votre avatar

OK, c’est noté. Merci

votre avatar

Les logiciels malveillants de type « info stealers » collectent les cookies et informations d’identification enregistrées dans les navigateurs, […] à partir des navigateurs installés sur les ordinateurs infectés


Donc la fuite de données est plutôt du côté du navigateur ?

votre avatar

Non, des « ordinateurs infectés » (Windows ?), le navigateur ne peux (quasiment) rien faire contre un virus déjà installé…

votre avatar

Le sujet de la news n’est pas la méthode utilisée pour obtenir l’info, mais que cette info provient de plus en plus de ChatGPT. En d’autres mots, le ciblage “d’écoute” semble s’orienter vers les IA. Ce qui me semble logique si de plus en plus de monde s’intéresse à cette technologie et qu’il est plus que probable de trouver des informations “compromissibles”

votre avatar

Y a-t-il un moyen de vérifier si on fait partie des malheureux élus ?

votre avatar

D’où la bonne idée de naviguer en mode privé le plus possible et de demander un wipe complet des données du navigateur à chaque fermeture.

votre avatar

Je ne pense pas que ça change quoi que ce soit.
Si ton ordi est infecté, ils auront accès à tes identifiants quand même.

votre avatar

Sauf que depuis le 12 juin, on ne peut plus activer le 2FA pour les nouveaux utilisateurs (https://help.openai.com/en/articles/7967234-does-openai-offer-multi-factor-authentication-mfa-two-factor-authentication-2fa)



:non: :non:

votre avatar

Ca explique que j’avais pas trouvé si le MFA était dispo ou pas … Aucun bouton dispo sur mon compte.



C’est juste complètement débile au regard du passif de fuites de comptes et données bancaires.

votre avatar

Oh mais c’est tellement une révolution que ce n’est pas grave ! La prochaine maj corrigera la béta actuelle 😊 On ne peut pas être parfait sur tout et surtout, dès le début. Hum, on me souffle que peut être on est nul partout :stress:



Quelqu’un a posé la question à Chat GPT sur la qualité de la gestion de la sécurité de son service pour rire? Je n’ai pas de compte et pas envie d’en créer, je l’avoue.

votre avatar

darkjack a dit:


Quelqu’un a posé la question à Chat GPT sur la qualité de la gestion de la sécurité de son service pour rire? Je n’ai pas de compte et pas envie d’en créer, je l’avoue.


En version GPT3/4 seules il dira rien d’intéressant, surtout que le modèle est figé à fin 2021.



En version GPT4 + Browse mode, il est capable de produire un rapport sur la gestion de la sécurité du service car il va se baser sur les sources externes.



J’ai demandé un rapport sur la sécurité d’OpenAI sur 2023, il m’a listé tous les incidents connus qui ont été publiés. Puis j’ai demandé de commenter la qualité de la sécurité de l’entreprise en se basant sur ce rapport et l’outil est relativement équilibré. Après faut pas oublier qu’il est conçu pour être très politiquement correct et donc le texte produit ne cherchera pas à enfoncer le clou comme peut le faire un journaliste ou un commentateur.




The quality of security in any organization can be challenging to definitively assess based solely on public incident reports because many factors contribute to an organization’s overall security posture, including its internal processes, employee training, use of security tools, and how quickly and effectively it responds to discovered vulnerabilities and breaches.



That being said, based on the incidents reported for OpenAI in 2023, it appears there have been a few notable security issues. These incidents include a data breach due to a bug in an open-source library, a serious vulnerability related to a new feature, and compromised account credentials found on the dark web.



However, it’s important to note that in each of these cases, OpenAI has taken action to mitigate the impact of these security issues. For example, in the case of the data breach, they worked with the maintainers of the Redis data platform to patch the flaw. When a serious vulnerability was discovered, OpenAI was transparent about the issue. In the case of compromised account credentials, OpenAI has recommended best practices for password hygiene and the use of two-factor authentication to its users.



In addition, OpenAI has shown a commitment to maintaining the performance and reliability of their systems. They have been transparent about issues affecting their services, as shown by their public status updates, and have provided information about the resolution of these issues.



These factors suggest that while OpenAI has faced significant security challenges, the organization is proactive and transparent in addressing these issues, which are positive signs of a strong security culture. However, the occurrence of these incidents also indicates areas where improvements can be made.



Ultimately, while OpenAI has encountered some security issues, it has also demonstrated a commitment to resolving these incidents and taking steps to prevent future occurrences. This balance between the occurrence of incidents and the response to them is typical in the tech industry, particularly for companies dealing with complex AI systems and large user bases. Security is an ongoing process of risk management and continuous improvement, and it appears that OpenAI is actively engaged in this process.



It’s worth noting that security is a shared responsibility. While OpenAI can implement measures to secure its systems and data, users also need to practice good security hygiene, such as using strong, unique passwords and enabling two-factor authentication, to protect their individual accounts.


J’ai profité du fait que le 2FA soit désactiver pour lui notifier ce fait et pareil, la réponse est en mode pour et contre et très lissée (“oui c’est une mauvaise chose de l’avoir désactivé mais doit y avoir des raisons” en résumé), comme usuellement avec les LLM de ce type.

votre avatar

Merci :yes:

Les données de plus de 100 000 utilisateurs de ChatGPT en vente sur le dark web

Fermer