DarkBERT, une IA générative entraînée à partir des contenus diffusés sur le dark web

DarkBERT, une IA générative entraînée à partir des contenus diffusés sur le dark web

DarkBERT, une IA générative entraînée à partir des contenus diffusés sur le dark web

Des chercheurs sud-coréens de l’Institut supérieur coréen des sciences et technologies (KAIST) et de la société S2W Inc, spécialisée dans l’analyse des données de cybersécurité pour le renseignement sur les cybermenaces, viennent de rendre public un grand modèle de langage (LLM) pré-entraîné sur les données du Dark Web, DarkBERT, rapporte Numerama.

Basée sur l’architecture RoBERTa de Meta, reposant sur BERT (Bidirectional Encoder Representations from Transformers) développé par Google en 2018, ce modèle « devrait servir aux experts en cybersécurité pour faciliter les recherches sur ce territoire comme la publication des données volées par des groupes de ransomwares », note Le Monde Informatique, qui évoque des résultats « encourageants ».

Commentaires (9)


Un cas d’utilisation des LLM intéressant, profitant de leur capacité à indexer et synthétiser de la donnée pour la restituer.



Ce genre d’implémentation spécialisée va se répandre de plus en plus je pense.


C’est même tout l’objectif, un produit spécialisé dans le droit, un dans la médecine etc tu peux les facturer plus chère qu’un produit générique disponible à tous


Oui c’est malin, sur le darkweb ou rien n’est facilement indexé, après ici c’est uniquement le réseau Tor.
J’ai lu en diagonale le rapport, ils précisent qu’il filtrent les pages avec “Captcha error” entre autres > même sur Tor ils sont obligé de mettre des captchas contre les crawlers ? :mad2:

Quand on voit la répartition du contenu avant préfiltrage p.13, c’est révélateur.


Xanatos

Oui c’est malin, sur le darkweb ou rien n’est facilement indexé, après ici c’est uniquement le réseau Tor.
J’ai lu en diagonale le rapport, ils précisent qu’il filtrent les pages avec “Captcha error” entre autres > même sur Tor ils sont obligé de mettre des captchas contre les crawlers ? :mad2:

Quand on voit la répartition du contenu avant préfiltrage p.13, c’est révélateur.


Je crois même que les pires captcha de la terre entière se trouvent sur TOR :D


seboquoi

Je crois même que les pires captcha de la terre entière se trouvent sur TOR :D


Et en général qui dit Captcha dit souvent entraînement d’une IA à l’œil. La boucle est bouclée.



The Dark Web is a subset of the Internet that is not indexed by web search engines such as Google and is inaccessible through a standard web browser. To access the Dark Web, specialized overlay network applications such as Tor (The Onion Router) (Dingledine et al., 2004) are required.




Le “such” qui change tout :roll:



“On ne sais bosser qu’avec Tor, mais on est au courant que c’est pas que ça, donc ajoute ce mot comme excuse.”


Quelqu’un a réussi à trouver leur modèle soi-disant rendu public ?



Exagone313 a dit:


Quelqu’un a réussi à trouver leur modèle soi-disant rendu public ?




Dans la publi:




We do not plan to publicly release the Dark Web text corpus used for pretraining DarkBERT.
We plan to only release the preprocessed version of DarkBERT in order to avoid any malpractices once the model is made publicly available (8).



(8) More information on the sharing of the datasets and the model itself will be released during the conference.




La conférence c’est la ACL’23 (July 9th to July 14th, 2023).
https://2023.aclweb.org



(reply:2133717:Firefly’)




Clairement sur le droit oui l’intérêt est là. Aujourd’hui chercher sur Legifrance n’est pas forcément d’une très grande simplicité ou lisibilité.



Un modèle de langage spécialisé dans la lecture du code serait d’une grande aide et serait surtout en capacité de corréler les différents textes de lois éparpillés entre les codes (Code A qui fait référence entre au Code Pénal, et la référence aux Directives Européennes, etc.).


Fermer