IA : Meta et Spotify fustigent l’Europe et sa « structure réglementaire fragmentée »

IA : Meta et Spotify fustigent l’Europe et sa « structure réglementaire fragmentée »

Il y a la bonne Europe et la mauvaise Europe

2

IA : Meta et Spotify fustigent l’Europe et sa « structure réglementaire fragmentée »

Dans une lettre ouverte, des dizaines d’entreprises, menées par Meta, ont lancé une charge contre l’Union européenne. Dans ce plaidoyer, elles réclament un cadre juridique clair pour ne pas entraver l’innovation. Meta, à la tête de la colonne, oppose régulation et innovation, dans une ambiance tendue entre l’Europe et les grandes sociétés américaines.

La lettre, publiée hier, réunit un lot d’entreprises, d’institutions diverses et de chercheurs. On y retrouve ainsi Nabla, CampusAI, SAP, Spotify, Criteo, Kornia AI, Essilor Luxottica, Bineric AI, Prada, Pirelli, ou encore les universités de Milan et de Harvard.

Le groupe, mené par Meta et Spotify – régulièrement associées dans le domaine de l’intelligence artificielle – dit craindre que l’Europe rate le coche de l'intelligence artificielle, laisse filer des milliards d’euros d'investissements et accentue son retard technologique.

Une Europe « moins compétitive et moins innovante »

« La réalité est que l'Europe est devenue moins compétitive et moins innovante par rapport à d'autres régions et qu'elle risque maintenant de prendre encore plus de retard dans l'ère de l'IA en raison de décisions réglementaires incohérentes », déclarent-ils. Pourquoi ? À cause de « l'absence de règles cohérentes ».

En conséquence, l’Europe pourrait selon les signataires « passer à côté de deux pierres angulaires de l'innovation en matière d'IA » : l’évolution des modèles ouverts et les modèles multimodaux. « La différence entre les modèles textuels et les modèles multimodaux est comparable à la différence entre un seul sens et les cinq sens », affirme la lettre ouverte. Un seul exemple est donné : Llama, « modèle ouvert d’avant-garde », développé par Meta.

Or, ces modèles peuvent aussi bien stimuler la recherche scientifique et la productivité qu’ajouter des « centaines de milliards d’euros à l’économie européenne ». Les auteurs en veulent pour preuve les améliorations permises dans la recherche médicale et la préservation des langues. La lettre mentionne des exemples provenant de HuggingFace, qui n’est pas signataire de la lettre ouverte.

Sans ces modèles et les outils qui les accompagnent, « le développement de l'IA se fera ailleurs, privant les Européens des avancées technologiques dont bénéficient les États-Unis, la Chine et l'Inde », prévient la lettre.

Éléments de langage

Toujours selon les signataires, la grande force de l’Union européenne dans le domaine réside dans son marché unique et son « corpus réglementaire commun Mais la prise de décision réglementaire serait, « devenue fragmentée et imprévisible, tandis que les interventions des autorités européennes de protection des données ont créé une énorme incertitude quant aux types de données qui peuvent être utilisées pour former des modèles d'IA ».

Le risque ? Multiple selon la lettre. D’abord, selon des études non citées, l’IA générative pourrait accroitre le PIB mondial de 10 %. Les citoyens européens pourraient « être privés de cette croissance ». Tout ce qui touche à la prochaine génération d’IA en source ouverte, ainsi que les produits et services qui l’en découleront, ne prendraient alors pas en compte « les connaissances, la culture ou les langues européennes ».

L’Union européenne risque également de passer à côté d’autres innovations, « comme l'assistant d'IA Meta, qui est en passe de devenir l'assistant d'IA le plus utilisé au monde d'ici à la fin de l'année ». Une menace à peine voilée. Yann LeCun, qui dirige la recherche en IA chez Meta, l'a également pointé sur X. Parlant de Llama, il a indiqué : « La prochaine version sera multimodale et comprendra les informations visuelles. Cependant, Meta ne diffusera pas cette version dans l'UE en raison de restrictions réglementaires concernant l'utilisation de contenus affichés publiquement par des utilisateurs de l'UE ».

Aussi, les signataires espèrent que les régulateurs européens se reprendront. « Nous avons besoin de décisions harmonisées, cohérentes, rapides et claires dans le cadre des règlements de l'UE sur les données, qui permettent d'utiliser les données européennes dans la formation à l'IA au profit des Européens », ajoutent-ils, projetant un éclairage plus cru sur leurs intentions.

Une opposition franche entre innovation et régulation

La lettre est problématique à plus d’un titre. Elle ambitionne de faire craindre l’immense opportunité ratée d’investissements capables de mettre l’Europe au même niveau que les États-Unis, la Chine ou l’Inde. Elle brosse un portrait mortifère : l’Union européenne est en train de rater sa chance, à cause de régulations trop lourdes. Un bourbier dans lequel se débattraient les entreprises, qui cherchent à innover et à faire bénéficier les citoyens européens de ces nouvelles technologies. Curieusement d'ailleurs, l'AI Act n'est jamais évoqué.

Cette lettre ouverte, qui semble essentiellement avoir été écrite par Meta, n’est pas sans rappeler les communications d’Apple contre le DMA. L’émotion et la crainte plutôt que des données et statistiques précises. Des éléments de langage souvent efficaces, mais qui masquent mal les ambitions d’une grande entreprise américaine face à l’Europe. Apple a par exemple déclaré que le retard de son bouquet de fonctions en IA en Europe était dû à sa législation.

Qu’il s’agisse de Meta, Microsoft, Apple, Amazon ou Google, la course à l’IA est devenu le mètre-étalon du progrès technologique. Même si Apple n’a pris le train qu’avec beaucoup de retard – et s’est retrouvée en partie coincée par le manque de mémoire vive dans ses produits – elle est, comme les autres, lancée dans une vaste course. Or, toutes ces entreprises sont très friandes de données et le réservoir européen leur est en grande partie fermé, notamment à cause du RGPD.

Meta a fait l’expérience de ce règlement, puisqu’elle a été condamnée plusieurs fois pour l’avoir enfreint : 390 millions d’euros en janvier 2023, 1,2 milliard d’euros quatre mois plus tard. L’entreprise de Mark Zuckerberg n’apprécie sans doute pas non plus le DMA, puisque ses formules « payer ou accepter » sont incompatibles aussi bien avec la loi sur les marchés numériques qu’avec le RGPD. Meta a également été forcée de mettre en pause son projet d’entrainer ses IA avec les données de ses utilisateurs européens.

Les compères Meta et Spotify

Il n’est pas surprenant de voir Meta et Spotify main dans la main dans cette lettre ouverte. Les entreprises sont très proches sur les questions d’intelligence artificielle depuis plusieurs années.

L’arrivée de cette lettre ouverte n’est d’ailleurs pas une surprise. Le 23 aout, Spotify et Meta avaient publié un communiqué allant déjà dans ce sens. Tous les éléments de langage étaient déjà en place. Mark Zuckerberg et Daniel Ek (CEO de Spotify) expliquaient ainsi pourquoi, selon eux, l’Europe devait adopter l’IA open source : « elle risque de prendre du retard en raison d'une réglementation incohérente et complexe ».

On retrouvait également la « structure réglementaire fragmentée », « des réglementations qui se chevauchent » et « des conseils incohérents sur la manière de s'y conformer ». Spotify allait jusqu’à évoquer une « aversion au risque » pour caractériser l’attitude européenne.

Un discours cohérent, mais double. Car les deux chefs d’entreprise se sont rejoints dans un autre domaine : leur guerre commune contre Apple. Et quand la firme de Cupertino a commencé à se plaindre du cadre européen et à présenter ses adaptations, Daniel Ek et Mark Zuckerberg ont critiqué son attitude face au DMA et sa « mauvaise foi », notamment les conditions financières proposées. Spotify, très impliquée auprès de la Commission européenne pour tout ce qui touche à Apple, n’hésitait alors pas à qualifier « d’extorsion » les propositions de la pomme.

Aucun problème en Europe ?

Au vu des éléments abordés par Spotify, il n’est pas impossible que le géant suédois du streaming veuille tout simplement utiliser les modèles multimodaux de Meta pour ses propres besoins. Une alliance technologique qui lui permettrait de garder sa première place, les recommandations musicales étant un facteur clé de fidélisation.

Pour autant, si toutes ces communications semblent aller surtout dans le sens de Meta, les problèmes pointés sont-ils illusoires ? Pas tout à fait. D’un côté, le RGPD pose différents problèmes depuis son adoption, car il existe des différences d’interprétation en fonction des pays membres. L’harmonisation n’est pas totale. De l’autre, un DMA encore jeune et une Europe soucieuse de montrer qu’elle a désormais suffisamment d’outils pour imposer ses propres volontés.

Rien n’empêche Meta et Spotify de pointer les carences observées dans le cadre juridique européen, mais les deux entreprises sont plus silencieuses quand il est à leur avantage.

Commentaires (2)


D'un côté je suis d'accord, l'innovation est freinée, et je n'oublie pas les risques pour la vie privée, mais si on veut des IA dont les résultats soient pertinents dans un cadre européen, il faudra bien des données pour les entraîner. Reste à savoir qui s'en charge et dans quel cadre.

De l'autre il faudrait arrêter de penser croissance infinie et envisager la frugalité (allez tiens, un lien vers une spec Afnor).

Enfin, pour ce qui est du maquis juridique, les Etats-Unis d'Amérique ne sont pas les derniers grace à leur modèle fédéral. Si en Europe on légifère a priori, c'est en train de se mettre en place là-bas en fonction des procès et de chaque état. Par exemple la loi BIPA en Illinois (et dans cet état seulement ?) impose des restrictions sur la reconnaissance faciale et [si j'ai bien compris/je ne suis pas juriste] sur l'usage comme l'entrainement d'IA sur des données biométriques.
Modifié le 20/09/2024 à 17h43

Historique des modifications :

Posté le 20/09/2024 à 17h40


D'un côté je suis d'accord, l'innovation est freinée, et je n'oublie pas les risques pour la vie privée, mais si on veut des IA dont les résultats soient pertinents dans un cadre européen, il faudra bien des données pour les entraîner.

De l'autre il faudrait arrêter de penser croissance infinie et envisager la frugalité (allez tiens, un lien vers une spec Afnor).

Enfin, pour ce qui est du maquis juridique, les Etats-Unis d'Amérique ne sont pas les derniers grace à leur modèle fédéral. Si en Europe on légifère a priori, c'est en train de se mettre en place là-bas en fonction des procès et de chaque état. Par exemple la loi BIPA en Illinois (et dans cet état seulement ?) impose des restrictions sur la reconnaissance faciale.

Posté le 20/09/2024 à 17h41


D'un côté je suis d'accord, l'innovation est freinée, et je n'oublie pas les risques pour la vie privée, mais si on veut des IA dont les résultats soient pertinents dans un cadre européen, il faudra bien des données pour les entraîner. Reste à savoir qui s'en charge et dans quel cadre.

De l'autre il faudrait arrêter de penser croissance infinie et envisager la frugalité (allez tiens, un lien vers une spec Afnor).

Enfin, pour ce qui est du maquis juridique, les Etats-Unis d'Amérique ne sont pas les derniers grace à leur modèle fédéral. Si en Europe on légifère a priori, c'est en train de se mettre en place là-bas en fonction des procès et de chaque état. Par exemple la loi BIPA en Illinois (et dans cet état seulement ?) impose des restrictions sur la reconnaissance faciale.

Les propos sont tellement caricaturaux, on aurait été le 1er avril que ça ne m'aurait pas étonné 😄
Mais j'ai peur que ces « arguments » fasse quand même mouche chez un peu trop de monde ...
Fermer