Connexion
Abonnez-vous

Le New York Times va utiliser l’IA générative dans certaines tâches éditoriales

Le New York Times va utiliser l’IA générative dans certaines tâches éditoriales

Photo de Jakayla Toney sur Unsplash

Les responsables du quotidien américain ont diffusé une note en interne qui ouvre la voie à l'utilisation de l'intelligence artificielle générative par la rédaction, notamment pour les tâches de SEO ou de diffusion sur les réseaux sociaux, mais aussi des suggestions de rédaction.

Le 17 février à 14h10

Le New York Times a une relation plutôt tendue avec les éditeurs d'IA générative. Rappelons que le prestigieux journal américain a, dès décembre 2023, attaqué OpenAI et Microsoft pour avoir entrainé leurs modèles de langage sur des millions de ses articles. La procédure est d'ailleurs encore en cours. Moins d'un an plus tard, le journal a aussi attaqué la startup Perplexity, toujours pour l'utilisation de contenus copyrightés.

Mais il semble que la direction du journal voie aussi dans l'intelligence artificielle (et notamment l'IA générative) des opportunités pour faire évoluer les outils de ses salariés.

Les salariés du média poussés à utiliser l'IA générative

Selon le média Semafor, elle a récemment envoyé un email à la rédaction pour donner de nouvelles consignes concernant cet outil : « L'IA générative peut épauler nos journalistes à révéler la vérité et à aider plus de gens à comprendre le monde. Le machine learning nous aide déjà à publier des informations que nous n'aurions pas sorties autrement, et l'IA générative a le potentiel de renforcer encore plus nos capacités journalistiques », indique le document.

Les salariés du journal sont encouragés par la direction à utiliser des outils d'IA générative pour créer des titres SEO, des résumés, des promotions pour leur audience mais aussi des suggestions de modification de texte, faire du brainstorming ou encore de l'analyse sur des documents.

Une liste d'outils proposée

L'entreprise propose une liste blanche d'outils d'IA générative que peuvent utiliser ses salariés. On y retrouve GitHub Copilot, NotebookLM et Vertex AI pour générer du code et créer des applications, autant que les produits Amazon et l'API d'OpenAI (et pas ChatGPT) via le compte business du journal, mais « uniquement avec l'approbation du service juridique de l'entreprise ». Le procès n'étant pas encore fini, le média semble garder ses distances avec cette dernière.

Le New York Times propose aussi des outils développés en interne : un « ChatExplorer » mais aussi un outil appelé Echo qui permet de résumer les articles, briefs et outils interactifs du média.

Semafor explique que les documents fournis à la rédaction proposent une liste d'exemples de prompts utilisables :

  • Combien de fois Al est mentionné dans ces épisodes de Hard Fork ?
  • Pouvez-vous réviser ce paragraphe pour le rendre plus concis ?
  • Imaginez que vous publiez cet article du Times sur Facebook. Comment feriez-vous la promotion de cet article ?
  • Résumez cet article du Times d'une voix concise et conversationnelle pour une lettre d'information.
  • Pouvez-vous proposer cinq titres optimisés pour les recherches pour cet article du Times ?
  • Pouvez-vous résumer cette pièce écrite par Shakespeare ?
  • Pouvez-vous résumer ce rapport du gouvernement fédéral en termes simples ?

Mais avec modération

Mais l'entreprise resterait en retrait d'une utilisation plus poussée de l'IA pour la rédaction d'articles, notamment pour des raisons d'infraction au Copyright mais aussi la divulgation de sources. Pour ces raisons, les journalistes sont priés de ne pas utiliser l'IA pour rédiger ou relire de manière significative.

Selon Semafor, certains employés du journal restent sceptiques face à l'usage interne de l'IA. Rappelons que le CEO de Perplexity, Aravind Srinivas, avait ironiquement proposé ses services pour remplacer des salariés du service IT du média l'année dernière alors qu'ils étaient en grève demandant une augmentation de leurs salaires.

Le Guardian signe avec OpenAI et va utiliser ChatGPT Enterprise

L'IA générative continue de faire son bonhomme de chemin dans les rédactions. Du côté du Guardian, la direction a annoncé vendredi 14 février avoir signé un partenariat avec OpenAI. Celui-ci, comme les accords signés par de nombreux média maintenant comme Le Monde, le groupe de presse espagnole Prisa Media et l'américain Conde Nast, permet à OpenAI d'utiliser les articles du média comme source de son chatbot en faisant de courts résumés.

« Dans le cadre de ce partenariat, les reportages et les archives journalistiques du Guardian seront disponibles en tant que source d'informations dans ChatGPT, parallèlement à la publication de courts résumés et d'extraits d'articles attribués » explique le Guardian. Le journal ajoute qu'il va déployer, via cet accord, la version ChatGPT Enterprise du chatbot d'OpenAI « pour développer de nouveaux produits, fonctionnalités et outils ».

Commentaires (22)

votre avatar
Résumé : ils se plaignent que les IA volent leur travail (ce qui est parfaitement légitime) mais bon ben ils vont les utiliser comme tout le monde parce que c'est quand même bien pratique ces trucs hein ...
votre avatar
- L'IA c'est du vol de données. Ceux qui vont l'utiliser auront un avantage concurrentiel. On peut pas laisser cela arriver.
- Tu veux dire, on ne peut pas laisser l'IA voler les données ?
- Heu...Non. Je veux dire on ne peut pas les laisser avoir un avantage concurrentiel.
- Ah.
votre avatar
Il n'y a pas vraiment de contradiction, ils prévoient probablement d'utiliser un modèle différent de ceux de OpenAI avec qui ils ont un conflit en cours.

Le NYT est un des plus gros média du monde, et ils sont largement précurseurs sur le sujet.

Ils ont parlé des problèmes de propriété intellectuelle quand la plupart des gens ne réalisaient pas encore du tout les implications, et beaucoup de gens en étaient encore au stade "un modèle doit pouvoir apprendre sans limite de propriété intellectuelle et obtenir un copyright sur ses créations comme un humain".

Par ailleurs ils développent leur propres modèles génératifs et explorent l'utilisation de LLMs depuis un bout de temps: The NYT was building an “internal ChatGPT equivalent” in 2023.
votre avatar
C'est la suite logique de leur dépendance financière. Les boites d'IA ont des milliards à distribuer pour créer la dépendances et verrouiller le client (rappel, la première dose est toujours gratuite). Donc là cet usage est non seulement gratuit mais probablement subventionné à donf par le capital invest.

Ensuite quand les journaux auront viré du monde, emmerdifié leur contenu, perdu des abonnements, ils seront devenus encore plus dépendants de ces services.
votre avatar
Le NYT est un groupe de presse rentable, c'est eux qui investissent. Justement car ils sont conscient des risques.

Ils sont toujours au top techniquement, ils font beaucoup de R&D et ça se voit. Ils savent bien que la qualité est ce qui fait la différence pour leurs abonnés, ils ne remplaceront pas les journalistes par des bots.
votre avatar
C'est une bonne situation, ça, titreur au NYtimes ?

Réf. https://www.youtube.com/watch?v=I1EFYiVKcok
votre avatar
L'exploitation de contenus privés sans autorisation est une chose (illégale). Être opposé à la technologie en est une autre (d'ailleurs pour quels motifs être opposé à la tech?).
votre avatar
Et si les contenus sont publics ?
Quel type d'exploitation ?
Pour quelle législation ?
Et suivant le type de système de justice (common law ou loi civile), d'après quelle jurisprudence ou texte de loi ?

Pour rester dans le sujet, on se restreindra à l'utilisation d'œuvres pour l'IA comme champ de réponse.
votre avatar
Je vous laisse faire les réponses. J'ai l'impression que vous les avez déjà.

Je connais vos convictions. Je ne discute pas avec quelqu'un qui considère la critique comme une opposition franche et directe à la tech.
votre avatar
Sur ce sujet, au contraire, je n'ai pas de convictions fortes sur le sujet mais j'essaie de suivre l'avancement du droit.

Je suis toujours en attente de décisions judiciaires en Common Law sur l'entraînement de l'IA générative par exemple. La dernière brève ici sur Thomson Reuters, est très spécifique et ne peut pas être généralisée.

Dans l'UE, (droit civil), la directive sur la propriété intellectuelle autorise la fouille de texte et de données dont l'accès est légal sauf opposition des détenteurs de droit. L'entraînement des IA dans ce cadre est donc légale.

L'affirmation :
L'exploitation de contenus privés sans autorisation est une chose (illégale).
(si "privé" voulait bien dire "soumis au droit d'auteur" comme je le suppose) est fausse dans toute l'UE puis qu'aucune autorisation n'est nécessaire.

Je ne connais pas les autres cas mais je serai heureux d'en apprendre plus si certains partagent leurs connaissances ici.

Vraiment, contrairement à un certain nombre de personnes ici qui affirme sans preuve qu'il est illégal d'utiliser des œuvres soumises au droit d'auteur pour entraîner les IA, je n'ai pas de conviction, juste une connaissance (incomplète surtout pour les USA et autres pays de common law faute de jurisprudence) du sujet et j'essaie de l’enrichir.
Mais personne jusqu'à présent ne m'a présenté de preuve de ce qu'il affirmait, ni même un raisonnement pouvant justifier l'affirmation.
votre avatar
@next
La dernière brève next.ink Next sur Thomson Reuters
Je ne suis pas sûr que ça soit une bonne idée de mettre des boutons à cliquer avec le nom du site en remplaçant le mot qui était entre [] dans le code markdown des URL. (C'est une figure de style pour dire que c'est une mauvaise idée:D).

Cela supprime un mot utile qui était dans ma phrase, ici, c'était le mot brève avant que j'édite mon commentaire. Ça rend le commentaire parfois incompréhensible.

Merci de respecter le plus possible la syntaxe mardown ! Ce n'est déjà pas le cas pour les citations de plusieurs paragraphes, ici, c'est assez pénible d'autant plus que ce comportement est nouveau et que l'on ne s'en rend pas forcément compte.
votre avatar
L'équipe des New York Clowns toujours au top 🤣
votre avatar
"[...]machine learning nous aide déjà à publier des informations que nous n'aurions pas sorties autrement,[...]"
Oui parce qu'avant elles auraient été vérifées.
CQFD
votre avatar
"Combien de fois Al est mentionné dans ces épisodes de Hard Fork"

Ces outils ne sont-ils pas singulièrement mauvais pour ce genre de tâches (compter des trucs, des lettres, des mots) ...?
votre avatar
plus depuis un moment
votre avatar
Utiliser un LLM pour compter des mots dans un texte, peut être que ça marchouille plus ou moins bien, mais c'est vraiment un usage imbécile.
votre avatar
Le LLM saura créer le code adéquat et l'exécuter sur le texte soumis (donnant un résultat exact, pas de la marchouille). C'est possible avec d'autres outils, mais la force de l'IA sera de s'adapter à toutes les situations.
votre avatar
J'y crois à mort ...
votre avatar
C'est déjà le cas hein. Le Chat le fait, plein d'autres produits le font.
votre avatar
Et on peut voir ça où ? Je viens de tester sur ChatGPT avec un texte de 126 mots, il retourne 211.
votre avatar
Tu dois avoir le nombre 85 dans ton texte ... :D
votre avatar
Même pas, mais ce serait très drôle.

Le New York Times va utiliser l’IA générative dans certaines tâches éditoriales

  • Les salariés du média poussés à utiliser l'IA générative

  • Une liste d'outils proposée

  • Mais avec modération

  • Le Guardian signe avec OpenAI et va utiliser ChatGPT Enterprise

Fermer