Lundi 29 mai, MistralAI a présenté son premier grand modèle de langage, nommé Codestral et consacré à la génération de code informatique.
L'entreprise affirme avoir entrainé son modèle sur plus de 80 langages de programmation, dont les plus utilisés Python, Java, C, C++, JavaScript et Bash, mais aussi Swift et Fortran.
Mistral AI ne renvoie dans son billet de présentation vers aucune documentation technique et encore moins vers un article scientifique qui décrirait les détails de la confection du modèle, contrairement à d'autres comme IBM, par exemple, lors de la présentation de la famille Granite. Elle diffuse par contre dans son billet des extraits de « benchmarks » à son avantage.
La startup, qui jusqu'à l'annonce de son modèle Large vantait le modèle « open source », publie Codestral sur Hugging Face sous une nouvelle licence. Celle-ci ne permet pas d'utiliser le modèle en production, mais seulement à des fins de recherche ou de test.
Pour utiliser Codestral, il faudra donc forcément passer par les outils de Mistral. La startup propose quatre façons d'y accéder :
- une API dédiée qui a notamment vocation à être utilisée dans un IDE en « Fill-In-the-Middle » ou en mode « instruction » (en bêta pendant 8 semaines et sur liste d'attente)
- l'API « classique » de Mistral
- le chatbot « Le Chat » de la startup
- des plugins VSCode/JetBrains sur lesquels Mistral garde la main tout en coopérant avec les développeurs de Continue.dev et Tabnine
Commentaires (12)
#1
Donc, le chat va remplacer la souris.
(et surtout le clavier, d'accord)
#2
#2.1
#2.2
Comme un shareware avec crack... ou enregistrer Winzip.
#3
#3.1
#3.2
Bout à bout, ça chiffre aussi, pour que quelqu'un bosse... Rien que le PC pro, en matière d'eau et énergie fossile pour sa fabrication, c'est colossal. Et je ne parle même pas de tous les besoins de base, de déplacement, nourriture (même au repos, il faut manger) et son origine, vêtements de travail, et j'en passe... Ne parlons même pas des moyens de transport...
La mutualisation par la dématérialisation sera toujours la solution la plus économique en matière de dépenses énergétiques carbonées, plus le dénominateur commun est petit, plus c'est intéressant.
Historique des modifications :
Posté le 30/05/2024 à 15h42
Et au delà de ça, il faudrait aussi voir quels sont les besoins d'un humain qui bosse, en la matière.
Bout à bout, ça chiffre aussi, pour que quelqu'un bosse... Rien que le PC pro, en matière d'eau et énergie fossile pour sa fabrication, c'est colossal. Et je ne parle même pas de tous les besoins de base, de déplacement, nourriture (même au repos, il faut manger) et son origine, vêtements de travail, et j'en passe...
La mutualisation sera toujours la solution la plus économique en matière de dépenses énergétiques carbonées, plus le dénominateur commun est petit, plus c'est intéressant.
Posté le 30/05/2024 à 15h43
Et au delà de ça, il faudrait aussi voir quels sont les besoins d'un humain qui bosse, en la matière.
Bout à bout, ça chiffre aussi, pour que quelqu'un bosse... Rien que le PC pro, en matière d'eau et énergie fossile pour sa fabrication, c'est colossal. Et je ne parle même pas de tous les besoins de base, de déplacement, nourriture (même au repos, il faut manger) et son origine, vêtements de travail, et j'en passe... Ne parlons même pas des moyens de transport...
La mutualisation sera toujours la solution la plus économique en matière de dépenses énergétiques carbonées, plus le dénominateur commun est petit, plus c'est intéressant.
#3.3
Historique des modifications :
Posté le 30/05/2024 à 17h42
Pour le PC Pro, certes. Pour le déplacement vers un lieu professionnel, aussi. Pour le reste pas vraiment : à moins de considérer qu'on doit tuer ou s'abstenir de faire naître toute personne susceptible d'être improductive, les besoins de base de l'humain restent, qu'il bosse sur du code ou qu'il passe la journée à se gratter le bide.
#3.4
- évidemment, ça démarre à peine, donc c'est bien le moment d'y réfléchir pour penser le futur autrement que "c'est moi qui vais pondre la prochaine révolution, peu importe le coût"
- si on prend tout, dans la vie, en silos, beaucoup de choses sont anecdotiques. C'est le même argument pour dire qu'en France, rien ne sert de s'embêter puisqu'on ne représente que 1%. L'immense majorité des pays représentent 1% en fait. Sauf qu'à la fin, si tu additionnes les anecdotiques, ça ne l'est plus.
#4
Quelle(s) source(s) ? Eh bien potentiellement une en commun, d'ailleurs.
Voilà ce avec quoi il falloir composer, et ce qu'il va falloir gérer sur les infrastructures.
Parce que quand du code moisi y atterrit, c'est toujours la faute de la machine ou du service. Si seulement les opérateurs d'infrastructures bénéficiaient d'une prime de pénibilité pour faire face aux trains d'étrons qui vont débouler sans annoncer clairement, honnêtement, la couleur de la provenance…
Historique des modifications :
Posté le 30/05/2024 à 13h52
Après les "développeurs Stack Exchange", les "développeurs à génération automatique de code".
Quelle(s) source(s) ? Eh bien potentiellement une en commun, d'ailleurs.
Voilà ce avec quoi il falloir composer, et ce qu'il va falloir gérer sur les infrastructures.
Parce que quand du code moisi y atterrit, c'est toujours la faute de la machine ou du service. Si seulement les opérateurs d'infrastructures bénéficiaient d'une prime de pénibilité pour faire face aux trains d'étrons qui vont débouler sans annoncer clairement, honnêtement, la couleur de la provenance…
#4.1
Faudra payer un expert capable de relire une base de code sur laquelle il a pas travaillé en amont et c'est le genre de prestation qui va se vendre très cher sur le marché. D'autant plus cher si les experts se font rares parce qu'on n'a jamais donné l'occasion à une nouvelle génération de se faire la main en tant que junior vu que "nan mais c'est bon, l'IA s'en occupe".
#4.2
Je ne veux pas passer pour le rabat-joie de service, mais c'est le cas de 80-90% du code pondu, par les stagiaires et "juniors débutants". Le niveau de certain est d'une médiocrité abyssale, beaucoup ont survécu à leur "étude" en copiant collant du code de stack overflow sans jamais rien capter.