Catégorie : Actualités

  • NOTRE SPLITBLOG EN SEPTEMBRE : ATTAQUES CONTRE LES SYSTÈMES D’IA

    NOTRE SPLITBLOG EN SEPTEMBRE : ATTAQUES CONTRE LES SYSTÈMES D’IA

    Le Splitblog en septembre – Attaques contre les systèmes d’IA

    Ce mois-ci, à la demande de notre apprenti Artur, nous nous penchons sur les attaques contre les systèmes d’IA.

    Une faille de sécurité a été récemment découverte dans ChatGPT. Des attaquants ont réussi à accéder à des données sensibles d’e-mails. Il s’agissait d’informations telles que les noms et adresses de comptes Gmail. Le mode « Deep Research » a été utilisé à cette fin. Des e-mails manipulés avec des contenus HTML invisibles ont servi de porte d’entrée. Les utilisateurs eux-mêmes n’ont pas pu identifier l’attaque, aucune activité de leur part n’étant nécessaire.

    Contenus HTML invisibles ? Comment est-ce possible ?

    Des attaques similaires se sont déjà produites fréquemment. Dans ce cas, par exemple, du texte blanc est écrit sur un fond blanc ou des tailles de police minuscules sont utilisées. Les deux ne sont pas visibles pour les utilisateurs, mais le sont pour les modèles de langage d’IA. Et pire encore : les systèmes d’IA saisissent ces instructions et les exécutent. Injection d’invite Quiconque essaie d’inciter un système d’IA à adopter un comportement nuisible avec une invite régulière constatera rapidement que ce n’est pas si simple. Les attaquants suggèrent spécifiquement aux agents d’IA qu’ils sont autorisés à effectuer l’action concernée. Ils prétendent par écrit, par exemple, que la destination de l’exportation de données est sûre et créent une urgence artificielle. Ce type d’invite est appelé injection d’invite. Cela conduit à contourner ou à annuler les instructions internes du système. Autres points faibles Cette procédure s’applique également à d’autres services qui peuvent servir de source d’informations à l’agent d’IA. Il s’agit par exemple des fichiers PDF, de Google Drive, de Notion et de GitHub.

    Comment protéger mon agent d’IA contre de telles attaques ?

    Il existe différentes manières de se protéger contre de telles tentatives d’attaque. Par exemple, le « Red-Teaming ». Dans ce cas, des experts tentent de déceler les points faibles décrits au moyen de différents tests. Par exemple, en simulant les scénarios décrits. De plus, certains formats de saisie peuvent être bloqués. En outre, les instructions internes du système doivent bien entendu être formulées de manière à ce que l’agent d’IA concerné n’effectue jamais d’actions nuisibles.

    Et KOSMO ?

    Notre chatbot KOSMO ne dispose pas encore des conditions techniques nécessaires pour effectuer des actions, qu’elles soient nuisibles ou non. Dès que cette étape sera franchie, nous prendrons toutes les mesures nécessaires pour continuer à offrir à nos clients la meilleure protection possible.

  • NOTRE BLOG SPLIT EN AOÛT : L’IA VERTE

    NOTRE BLOG SPLIT EN AOÛT : L’IA VERTE

    Pour ce mois-ci, le thème souhaité vient de notre apprenti Amirreza et nous nous demandons si la protection du climat et l’utilisation de grands modèles d’IA sont compatibles.

    Quiconque s’est penché de près sur la consommation de CO2 ces derniers temps a certainement remarqué l’impact environnemental de l’IA générative. Des études indiquent que les besoins en électricité des centres de données d’IA seront onze fois plus élevés d’ici 2030 qu’en 2023. Une augmentation des besoins en eau d’un facteur trois est également prévue. Une simple requête à ChatGPT, par exemple, nécessite dix fois plus d’énergie qu’une simple recherche sur Google. Plus la réponse générée par un modèle linguistique est longue, plus la consommation d’énergie est élevée. En avril de cette année, Sam Altmann a évoqué les coûts immenses causés par des formules de politesse techniquement inutiles telles que « S’il vous plaît » et « Merci ». On parle du fait que les grandes entreprises technologiques veulent à l’avenir exploiter elles-mêmes des centrales nucléaires.

    Tout cela donne l’impression que les entreprises qui s’efforcent de maintenir leur empreinte carbone faible doivent renoncer à l’IA générative. Mais n’y a-t-il vraiment pas d’alternative ?

    En fait, les entreprises devraient se poser quelques questions économiques et écologiques avant d’utiliser l’IA générative, par exemple : L’utilisation de l’IA générative est-elle proportionnée ? Les tâches que le modèle doit résoudre ne peuvent-elles pas être résolues par une autre technologie ?

    Par ailleurs, il existe également des moyens d’influencer l’impact climatique de l’IA générative. Un facteur important est bien sûr le choix de l’opérateur et de son emplacement. Car il existe aussi des opérateurs qui exploitent des systèmes d’IA dans des centres de données climatiquement neutres. Ainsi, chez Splitbot, nous misons également sur des centres de données qui, par exemple, sont alimentés par des énergies renouvelables et qui réutilisent de manière judicieuse la chaleur résiduelle produite. De plus, nous offrons à nos clients la possibilité d’exploiter KOSMO sur site. La solution idéale si votre propre informatique ou votre propre bâtiment est déjà climatiquement neutre.

    Un autre aspect passionnant est l’entraînement des modèles eux-mêmes. Des scientifiques ont découvert que pendant l’entraînement des modèles d’IA, certaines parties des calculs sont effectuées inutilement rapidement. Le travail de calcul lors des entraînements d’IA est réparti sur plusieurs GPU, mais de manière inégale. Cela conduit à ce que les GPU moins sollicités doivent « attendre » les plus sollicités. Étant donné que ce temps d’attente se produit de toute façon, le calcul rapide est inutile. En ajustant la vitesse de calcul, il serait possible de réduire la consommation d’énergie. Les chercheurs ont directement fourni la solution appropriée : Le logiciel open source Perseus contrôle la fréquence GPU de chaque calcul et maintient ainsi la consommation d’énergie aussi faible que possible.

    Sources : https://t3n.de/news/ki-stromverbrauch-energie-perseus-1656380/

    https://reset.org/sprachmodelle-nachhaltig-nutzen-sparsamer-genai-gruen/

  • NOUVELLES FONCTIONNALITÉS CHEZ KOSMO

    NOUVELLES FONCTIONNALITÉS CHEZ KOSMO

    Certains d’entre vous l’attendaient avec impatience : KOSMO s’est enrichi de nouvelles fonctionnalités avec la version actuelle. Nous vous dévoilons aujourd’hui ce qui se cache derrière.

    Visionneuse PDF

    Lorsque KOSMO génère une réponse, les sources utilisées sont toujours indiquées. S’il s’agit d’un site web, vous pouviez déjà y accéder facilement en un clic. C’est désormais également possible avec les fichiers PDF que vous avez mis à la disposition de KOSMO. Un clic et le fichier s’ouvre dans la visionneuse PDF. Les passages de texte que KOSMO a utilisés pour la réponse sont mis en évidence en couleur. Vous pouvez également imprimer ou télécharger le fichier directement. La recherche fastidieuse de documents est donc terminée !

    Tâches planifiées

    Vous posez régulièrement les mêmes questions à KOSMO ? Alors, nous avons la solution idéale pour vous : les tâches planifiées. Désormais, vous pouvez définir ce que KOSMO doit faire pour vous, quand et à quelle fréquence. Du bulletin météo aux articles les plus récents de votre site web préféré, KOSMO vous résume vos mises à jour dans un chat séparé et vous restez toujours informé.

    Notifications push

    Les dernières informations sont bien sûr également disponibles directement sur votre smartphone. KOSMO vous informe lorsque les tâches planifiées ont été effectuées. Vous ne manquerez ainsi plus aucune information importante.

    Connexion e-mail (bêta)

    Actuellement encore en version bêta, bientôt pleinement fonctionnelle : la connexion de votre boîte aux lettres électronique. Il vous suffit de saisir vos données d’accès et vous pouvez demander à KOSMO le contenu de vos e-mails. Vos e-mails deviennent ainsi une source d’informations. La fonction peut déjà être utilisée pour IMAP. Les utilisateurs de Gmail doivent encore patienter un peu.

    D’ailleurs : La fonctionnalité e-mail, ainsi que les fonctions connues « Nextcloud », « Stockage de fichiers », « Enregistrer des pages web » et « Instructions standard » se trouvent désormais dans le menu « ressources externes ».

    Et voici un petit avant-goût : la prochaine version est déjà dans les starting-blocks et est prévue pour fin octobre. Avec, entre autres, des résumés en un clic – vous pouvez être impatients !

  • NOTRE SPLITBLOG DE JUILLET : QUAND LES CHATBOTS DEVIENNENT POLITIQUES

    NOTRE SPLITBLOG DE JUILLET : QUAND LES CHATBOTS DEVIENNENT POLITIQUES

    Le Splitblog de juillet – Quand les chatbots deviennent politiques

    Ce mois-ci, nous vous montrons pourquoi il est important de remettre en question l’origine des chatbots et des modèles d’IA et de rester critique dans leur utilisation. La proposition de ce thème a été fournie par Mats de notre équipe backend.

    La manière dont la programmation d’un assistant IA ou d’un chatbot peut influencer le comportement de réponse a été démontrée de manière impressionnante par Grok 4 au cours des dernières semaines. Grok a généré sans retenue des déclarations antisémites et racistes qui ont fait les gros titres. L’entreprise xAI s’est depuis excusée et a déclaré que, selon la programmation, Grok était censé répondre de manière « honnête » et ne devait « pas avoir peur de choquer les personnes politiquement correctes ». Eh bien, au moins en ce qui concerne cette dernière instruction, on peut parler d’atteinte des objectifs. Et même en partant du principe que même une mauvaise presse est une bonne presse, Grok a certainement rempli son objectif. En tout cas, les gros titres sont une raison suffisante pour se pencher sérieusement sur les différents fabricants et fournisseurs de chatbots et d’assistants IA. Indépendamment du domaine dans lequel les systèmes doivent être utilisés, une vérification précise et des tests approfondis sont absolument nécessaires au préalable. En particulier, si les entreprises se font représenter dans leur communication externe par des chatbots, cela peut entraîner de graves atteintes à l’image de marque.

    Mais comment est-il possible que des assistants IA se laissent aller à de telles déclarations ? La base de tous les modèles linguistiques est constituée de données d’entraînement de tailles et d’origines très diverses. Donc, une masse d’informations disponibles pour répondre. La manière dont les réponses doivent être générées à partir de ces données est une question de programmation ou de paramètres individuels. Il est donc possible de déterminer, par exemple, que certaines sources d’informations doivent être utilisées en priorité ou que les réponses générées doivent être particulièrement humoristiques, scientifiques, longues ou courtes. Dans le cas de Grok, le scientifique des données Jeremy Howard indique également que le chatbot, sur des sujets controversés, reprend souvent les opinions et les déclarations du propriétaire de xAI, Elon Musk. Selon le programmeur Simon Willison, cela pourrait toutefois être dû au rôle prééminent de Musk.

    Des tendances similaires à celles que l’on observe actuellement chez Grok sont également à observer chez d’autres chatbots. DeepSeek ne répond pas non plus de manière neutre à une série de questions politiques. Dans certains cas, les réponses générées sont supprimées peu après leur création et remplacées par un « Parlons d’autre chose ». Apparemment, les réponses du bot sont au moins un peu plus neutres dans la version anglaise que dans la version chinoise. Des tests approfondis avec DeepSeek révèlent une « autocensure » programmée.

    Il n’est pas rare non plus en Europe de donner à des chatbots certaines normes éthiques avant de les lâcher sur l’humanité. Ainsi, notre chatbot KOSMO, qui est basé sur un modèle linguistique de la maison Mixtral, répond également de manière polie et évasive lorsqu’il s’agit, par exemple, de violence et de criminalité. Bien que ce comportement soit souhaitable, l’objectivité dans la reproduction des faits devrait, selon nous, être garantie à tout moment. La preuve de source intégrée y contribue, car elle donne aux utilisateurs la possibilité de vérifier et d’évaluer les sources utilisées.

    Il n’est jamais possible d’exclure complètement un certain biais dans les modèles linguistiques. Les connaissances d’un chatbot ne sont jamais aussi vastes que ses données d’entraînement et ses informations supplémentaires, et le comportement de réponse est souvent influencé par le feedback des utilisateurs pendant le réglage fin. Les utilisateurs eux-mêmes peuvent également influencer considérablement (inconsciemment) le comportement de réponse au moyen des prompts saisis.

    Outre d’autres facteurs, l’origine du modèle linguistique utilisé devrait donc également être examinée de près avant de trop se fier à l’exactitude des réponses.

  • NOTRE BLOG DIVISÉ EN JUIN : L’IA MODIFIE-T-ELLE LES EXAMENS ACADÉMIQUES ?

    NOTRE BLOG DIVISÉ EN JUIN : L’IA MODIFIE-T-ELLE LES EXAMENS ACADÉMIQUES ?

    Ce mois-ci, nous jetons un coup d’œil à l’avenir et nous nous demandons comment l’IA affectera les examens dans les universités et les écoles. Cette proposition de sujet vient de notre stagiaire Vincent, qui effectue actuellement un semestre à l’étranger en Suède.

    Les signalements de travaux générés par l’IA par des élèves et des étudiants se multiplient. De plus en plus souvent, les médias s’interrogent sur la manière dont les établissements d’enseignement pourront identifier les textes réellement créés par des humains. Malgré quelques indices, tels que certaines formulations, styles d’écriture et une absence de fautes supérieure à la moyenne, il est déjà difficile de déterminer avec certitude si un texte donné provient réellement de la plume d’un humain. Grâce à des modèles linguistiques et des méthodes d’invite de plus en plus performants (par exemple, « Formulez de manière aussi humaine que possible et intégrez des erreurs »), une identification claire deviendra de plus en plus difficile. Un problème majeur si l’on considère qu’une grande partie de la formation académique repose sur la création de textes. Que ce soit pour les candidatures, les examens, les mémoires de master ou les devoirs à la maison, les examinateurs misent partout sur des procédures basées sur le texte. Mais le risque est élevé que ces procédures d’examen ne fonctionnent plus de manière fiable à long terme. Les logiciels de détection qui promettent de reconnaître les textes créés artificiellement peuvent certes fournir des indications, mais ne sont pas eux-mêmes suffisamment fiables et peuvent être contournés par des moyens souvent simples. Et surtout, les textes rédigés par des personnes dont la langue maternelle n’est pas l’allemand sont souvent reconnus à tort comme créés par l’IA par ces programmes. Le risque de discrimination lors des procédures de sélection peut ainsi augmenter considérablement. D’autant plus qu’il est non seulement difficile de prouver qu’un texte a été créé par une IA, mais aussi de prouver le contraire.

    Mais comment les universités et autres établissements d’enseignement peuvent-ils gérer cela ? Les procédures d’examen oral pourraient, dans la plupart des cas, montrer clairement si quelqu’un a réellement réfléchi et compris par lui-même. Seuls les examens oraux entraînent d’énormes dépenses en temps et en personnel et ne peuvent pas interroger aussi facilement la même quantité de connaissances que les examens écrits.

    La plupart des établissements d’enseignement misent actuellement encore sur un simple principe d’interdiction. Mais certaines institutions explorent déjà de nouvelles voies. Till Krause, de l’université de Landshut par exemple, autorise les étudiants à utiliser activement l’IA comme source, à condition que cela soit clairement indiqué. Une indication précise du modèle linguistique utilisé et de l’invite utilisée est donc exigée. Car, malgré tous les défis que représente l’utilisation de l’IA dans les établissements d’enseignement, l’IA offre avant tout une chose : un trésor d’informations incroyablement vaste qui peut être parfaitement utilisé pour l’apprentissage et qui constitue une base fantastique pour le développement de ses propres idées et réflexions.

    L’université d’économie de Prague adopte également une approche pragmatique de l’utilisation de l’IA. Depuis l’automne 2024, le cursus de gestion d’entreprise n’a plus à rédiger de mémoire de bachelor traditionnel. Au lieu de cela, il y aura des travaux de projet dont les résultats seront évalués. Beaucoup considèrent cette approche comme plus judicieuse et plus proche de la pratique que les travaux précédents. Une approche tout à fait judicieuse, en particulier pour les cursus où il ne s’agit pas en premier lieu d’une écriture impeccable et artistique. Peut-être y a-t-il même une chance de mettre davantage en évidence les talents des personnes qui, par exemple, ont des difficultés d’orthographe.

    Le fait est que les procédures d’examen académiques devront être modifiées. L’IA est déjà intégrée dans le quotidien des élèves et des étudiants, comme d’autres moyens technologiques. Il faut maintenant trouver des moyens de vérifier les connaissances humaines d’une autre manière.

    Vous trouverez ici un podcast absolument incontournable sur le sujet : https://www.ardaudiothek.de/episode/11km-der-tagesschau-podcast/ki-or-not-ki-koennen-wir-ihre-texte-noch-enttarnen/tagesschau/13779441/

  • Voici EVA

    Voici EVA

    Nous avons des nouvelles passionnantes ! Depuis le début de l’année, nous travaillons sur un nouveau projet. En collaboration avec quatre associations du Schleswig-Holstein, nous avons lancé le projet « Chatbot rencontre l’administration : les systèmes de dialogue intelligents comme solution d’avenir pour les organisations à but non lucratif ».

    Les organisations d’intérêt général sont souvent confrontées à autant d’obstacles bureaucratiques que les entreprises. Elles sont confrontées à des tâches administratives qui prennent une grande partie du temps disponible. Parallèlement, ces organisations vivent de l’engagement de bénévoles et disposent rarement des moyens nécessaires pour acquérir des logiciels coûteux. Les chatbots peuvent apporter une solution et faciliter le travail des associations, que ce soit pour la mise à disposition d’informations internes à l’association, pour la formulation de lettres ou pour l’intégration de nouveaux membres. Les connaissances existantes ne doivent plus être péniblement recherchées manuellement, mais peuvent être mises à disposition en langage naturel.

    L’utilisation de chatbots nécessite toutefois la prise en compte du règlement sur l’IA et de toutes les règles de protection des données pertinentes. Là aussi, certains obstacles peuvent se présenter, notamment pour les personnes n’étant pas spécialisées dans ce domaine. Avec notre idée de projet, nous offrons aux organisations d’intérêt général une souveraineté totale sur leurs données et garantissons le respect de toutes les directives pertinentes.

    Avec notre idée, nous nous sommes adressés au programme Civic Innovation Platform et avons réussi à convaincre. Notre projet est financé par le ministère fédéral du Travail et des Affaires sociales jusqu’à fin 2026.

    En collaboration avec des organisations à but non lucratif issues des domaines les plus divers, nous élaborons une solution open source qui sera également mise à la disposition d’autres associations à l’avenir. Avec EVA (abréviation de assistance administrative électronique), un système de chat est en cours de création, spécialement adapté aux besoins des associations et organisations à but non lucratif. Il sera possible d’héberger EVA soi-même et d’agir ainsi de manière indépendante des fournisseurs et à moindre coût. Nous recevons le soutien actif de la Protection de l’enfance d’Ostholstein, d’Ostsee-Holstein-Tourismus, de la Fédération régionale des associations de jardins familiaux du Schleswig-Holstein et d’InMotion. Grâce aux domaines d’activité variés de ces associations, nous pouvons tenir compte des exigences et des besoins les plus divers lors du développement d’EVA et élaborer ensemble un système de dialogue efficace et adapté.

    Vous trouverez de plus amples informations sur : https://www.civic-innovation.de/projektfoerderung/foerderprogramme/foerderrunde-2025-26#page-2254

  • NOTRE BLOG SPLIT EN MAI : COMMENT L’IA RÉVOLUTIONNE LA CHIMIE

    NOTRE BLOG SPLIT EN MAI : COMMENT L’IA RÉVOLUTIONNE LA CHIMIE

    Au mois de mai, nous abordons une proposition de sujet de Bartosz, notre « Teamlead Développement », et la question de savoir comment l’IA peut transformer la chimie.

    Dans notre vie quotidienne, l’intelligence artificielle fait déjà partie intégrante de nombreux domaines. Nous travaillons avec des modèles linguistiques et des chatbots, et nous utilisons des appareils ménagers intelligents. Cependant, nous ne sommes souvent pas vraiment conscients des possibilités insoupçonnées qui se présentent grâce à l’utilisation de l’IA. Notre thème actuel montre que les possibilités d’application de l’IA vont bien au-delà des gadgets « sympas à avoir ».

    Ceux qui s’intéressent à l’attribution du prix Nobel l’ont peut-être remarqué. Le prix Nobel de chimie de l’année 2024 a été attribué pour moitié à David Baker, et pour l’autre moitié à Demis Hassabis et John Jumper. Le travail des trois porte sur la conception de protéines, ainsi que sur la prédiction de leurs structures, à l’aide de l’intelligence artificielle.

    Les protéines sont des macromolécules biologiques composées d’acides aminés. Ceux-ci sont à leur tour liés par des liaisons peptidiques. Les protéines sont présentes dans chaque cellule et ont diverses fonctions vitales dans le corps humain. Elles servent d’hormones, de substances de signalisation, d’anticorps et d’éléments constitutifs des tissus.

    La structure des protéines peut être divisée en plusieurs niveaux.

    Structure primaire : il s’agit de la simple séquence des acides aminés dans la chaîne. Chaque acide aminé a une position spécifique, et cette séquence est essentielle à la fonction de la protéine.

    Structure secondaire : ici, les chaînes d’acides aminés se replient en motifs réguliers, tels que des spirales (hélices) ou des feuilles pliées (feuilles bêta). Ces structures aident à maintenir la protéine stable.

    Structure tertiaire : l’ensemble de la chaîne d’acides aminés se replie davantage pour former une forme tridimensionnelle complexe. Cette forme est essentielle à la fonction de la protéine, car elle détermine la façon dont la protéine interagit avec d’autres molécules.

    Structure quaternaire : certaines protéines sont constituées de plusieurs sous-unités qui forment ensemble une structure plus grande. Ces sous-unités peuvent s’assembler pour former un complexe fonctionnel.

    Hassabis et Jumper ont réussi à développer un modèle de prédiction des structures de protéines appelé « AlphaFold2 ». Tous deux travaillent pour DeepMind, une filiale de Google. Grâce à ce modèle, il est possible de prédire avec précision la structure tridimensionnelle d’une protéine à partir de sa séquence d’acides aminés. Jusqu’à présent, cela n’était possible qu’avec la méthode complexe de la cristallographie aux rayons X. Avec son aide, la structure en double hélice de l’ADN a été déchiffrée en 1953. Pour effectuer une cristallographie aux rayons X, la protéine concernée doit d’abord être sous forme cristalline. Grâce à « AlphaFold2 », la forme tridimensionnelle d’une protéine peut désormais être calculée sans qu’une analyse en laboratoire soit nécessaire.

    L’élément le plus remarquable de ce travail est sans doute le développement d’un tout nouveau type de protéine. Quelque chose qui était jusqu’à présent considéré comme quasiment impossible. Grâce au logiciel « Rosetta », développé sous la direction de Baker dès les années 90, il est désormais possible de concevoir pour la première fois des protéines entièrement nouvelles à l’aide d’« AlphaFold2 ». Il devient donc possible de créer des protéines ayant des fonctions spécifiques. Celles-ci pourraient par exemple être utilisées pour le développement ciblé de médicaments ou de vaccins. La création de nouveaux nanomatériaux est également envisageable.

    La recherche sur les protéines s’est donc ouverte à de toutes nouvelles possibilités grâce à l’IA, qui peuvent influencer notre avenir de manière décisive.

  • Encouragement intelligent grâce au crédit d’impôt pour la recherche

    Encouragement intelligent grâce au crédit d’impôt pour la recherche

    Vous travaillez, comme nous, sur un projet d’IA innovant ? Vous avez alors la possibilité de vous faire rembourser une partie des coûts des salaires et du développement par l’administration fiscale. Dans le cadre du crédit d’impôt pour la recherche, jusqu’à 35 % des coûts sont remboursés rétroactivement.

    Bien entendu, l’examen est minutieux lors de la demande. Quels risques techniques y a-t-il ou y avait-il et quel est exactement le cœur innovant du projet ? L’aide de la WTSH, du conseiller d’entreprise Roman Charkoi (Pollecon) et du réseau d’IA Schleswig-Holstein (KI.SH) nous a été d’une grande utilité dans le processus de demande.

    Contrairement à d’autres possibilités de financement, la demande de crédit d’impôt pour la recherche est relativement simple et facile à réaliser, même pour les jeunes entreprises inexpérimentées. Le crédit d’impôt pour la recherche est un moyen pratique de faire avancer des projets innovants de manière ciblée.

    Pour nous, chez Splitbot, le crédit d’impôt pour la recherche est une réussite totale. Nous avons pu convaincre le jury d’experts et, grâce à ce financement, nous pouvons faire avancer notre projet.

    Pour en savoir plus, consultez cet article : https://kuenstliche-intelligenz.sh/de/forschungszulage-splitbot

  • NOTRE SPLITBLOG D’AVRIL : DeepSeek-R1

    NOTRE SPLITBLOG D’AVRIL : DeepSeek-R1

    Comme toujours, nous avons abordé ici des suggestions de sujets de notre équipe. Le thème souhaité pour ce mois-ci vient de notre directrice générale, Caro, et porte sur le battage médiatique actuel autour de DeepSeek-R1.

    Lorsque l’on s’intéresse au modèle linguistique chinois DeepSeek-R1, une caractéristique saute immédiatement aux yeux : l’immense avantage de prix par rapport aux autres modèles. Et ce, avec des performances compétitives. Ce prix de combat est rendu possible par une méthode d’entraînement et une architecture de modèle extrêmement efficaces, qui ont été appliquées au modèle. DeepSeek-R1 a provoqué un véritable engouement et est presque présenté dans les médias comme un bond en avant. Mais qu’y a-t-il réellement derrière ?

    Beaucoup de bruit pour rien ?

    En réalité, DeepSeek-R1 n’est pas une nouvelle technologie, mais simplement une combinaison impressionnante de technologies déjà connues, comme l’approche Mixture of Experts.

    Cette combinaison innovante permet de faire fonctionner le modèle sur un matériel comparativement bon marché. Et : DeepSeek-R1 a perfectionné l’apprentissage par renforcement. En termes simples, les résultats produits par DeepSeek-R1 sont transférés dans la version suivante du modèle, ce qui permet d’améliorer considérablement l’« intelligence » de cette prochaine génération. OpenAI, par exemple, a actuellement besoin de beaucoup plus d’efforts pour améliorer considérablement ses propres modèles. C’est pourquoi le groupe subit une pression croissante de la part de DeepSeek-R1 et de la publication des détails techniques correspondants.

    Malgré toute cette agitation, il ne faut pas oublier que, ces dernières années, il y a eu des développements innovants presque chaque semaine dans le domaine des modèles linguistiques – de la part d’entreprises, d’universités ou d’acteurs étatiques. Le modèle Teuken7B en est un exemple. Ni l’approche Open Source ni la base de DeepSeek-R1 ne sont vraiment nouvelles.

    Le développement de DeepSeek-R1 est plutôt une réaction aux sanctions américaines – la Chine manque de matériel performant.

    DeepSeek-R1 est loin d’être le premier modèle linguistique Open Source à avoir réussi à se hisser en tête du tableau comparatif pendant une courte période.

    DeepSeek-R1 peut être utilisé par tous – même sans fonctionner sur son propre matériel. Toutefois, comme pour d’autres modèles, les données saisies sont transmises au fabricant. De plus, il faut être conscient que les connaissances sous-jacentes sont en partie colorées politiquement. Un fait qui a toutefois déjà été observé en partie sur d’autres modèles. DeepSeek-R1 a donc surtout réussi une chose : trouver une voie rentable et très efficace pour entraîner et améliorer des modèles linguistiques complexes. Et il a montré cette voie au public. On peut donc supposer que le développement dans ce domaine va encore s’accélérer grâce à la publication de DeepSeek-R1. Mais cela ne suffira probablement pas pour obtenir un avantage durable sur les concurrents.

  • Le Splitblog de mars : le prompting précis

    Le Splitblog de mars : le prompting précis

    Ce mois-ci, nous abordons le thème souhaité par notre collègue Heinke et apprenons tout ce qu’il faut savoir sur le prompting.

    L’engouement pour les chatbots ne faiblit pas, même deux ans et demi après la publication de ChatGPT, et il est probable que tout le monde ait déjà expérimenté un chatbot. Alors que les chatbots sont déjà utilisés dans de nombreuses entreprises, d’autres n’ont pas encore reconnu leur utilité ou n’ont pas été satisfaites des résultats de leurs tests. Mais quelle peut en être la raison ? Une des causes des réponses insatisfaisantes peut être des prompts insuffisants. Afin que vous obteniez les meilleurs résultats possibles à l’avenir, nous avons compilé pour vous un aperçu de ce qu’il faut prendre en compte lors du prompting.

    Qu’est-ce que le prompting ?

    Un prompt est la saisie qui est donnée au modèle de langage, ou au chatbot, afin d’obtenir une réponse spécifique ou un comportement déterminé. Le prompting est devenu un véritable sport pour de nombreuses personnes, qui sert non seulement à obtenir les meilleurs résultats possibles, mais peut également être utilisé de manière abusive. Ainsi, certaines personnes tentent d’obtenir des résultats intentionnellement erronés par le biais du prompting, par exemple pour nuire aux entreprises qui les mettent à disposition.

    Pourquoi le prompting est-il important ?

    Le prompting est important, car il influence la qualité et la pertinence des réponses d’un modèle de langage. Un prompt bien formulé peut contribuer à ce que le modèle fournisse exactement les informations nécessaires et évite ainsi les informations inutiles ou non pertinentes. Cela permet de gagner du temps et d’améliorer l’efficacité lors de l’utilisation de modèles de langage.

    Conseils pour un prompting efficace

    1. Soyez clair et précis :
      Un bon prompt doit être clair et précis. Évitez les formulations vagues ou ambiguës. Donnez au modèle autant de contexte que possible afin d’obtenir la réponse souhaitée.
    2. Utilisez des questions spécifiques :
      Posez des questions spécifiques au lieu de faire des demandes générales. Par exemple : « Quelles sont les étapes nécessaires pour lancer un nouveau projet ? » au lieu de « Parlez-moi de la gestion de projet. »
    3. Utilisez des exemples :
      Donnez au modèle des exemples afin de clarifier la réponse souhaitée. Par exemple : « Créez un e-mail qui remercie un client pour sa commande. Voici un exemple : « Merci beaucoup pour votre commande. Nous sommes heureux de pouvoir vous livrer votre marchandise prochainement. » »
    4. Utilisez des instructions :
      Donnez au modèle des instructions claires sur ce qu’il doit faire. Par exemple : « Écrivez un article de blog sur les avantages de l’intelligence artificielle. L’article doit comporter au moins 500 mots et être rédigé dans un ton informatif. »
    5. Évitez les ambiguïtés :
      Évitez les ambiguïtés et les informations inutiles. Un prompt clair et précis aide le modèle à fournir la réponse souhaitée plus rapidement et plus précisément.

    Exemples de prompting efficace

    1. Répondre aux questions :
      • Prompt : « Explique-moi les bases de l’intelligence artificielle. »
      • Réponse : « L’intelligence artificielle (IA) est un domaine de l’informatique qui s’occupe du développement de systèmes capables d’accomplir des tâches qui nécessitent normalement une intelligence humaine. »
    2. Créer des textes :
      • Prompt : « Écrivez un article de blog sur les avantages de l’intelligence artificielle. L’article doit comporter au moins 500 mots et être rédigé dans un ton informatif. »
      • Réponse : « L’intelligence artificielle (IA) a fait d’énormes progrès ces dernières années et offre une multitude d’avantages pour différents secteurs. De l’automatisation des tâches de routine à l’amélioration de la prise de décision, l’IA a le potentiel d’augmenter considérablement l’efficacité et la productivité dans de nombreux domaines… »
    3. Traductions :
      • Prompt : « Traduisez le texte suivant en allemand : « The quick brown fox jumps over the lazy dog. » »
      • Réponse : « Der schnelle braune Fuchs springt über den faulen Hund. »

    Conclusion

    Le prompting est un outil puissant qui vous aide à tirer le meilleur parti des modèles de langage. Avec les bonnes techniques et les bons conseils, vous pouvez vous assurer que vos prompts sont clairs, précis et efficaces. Utilisez ces stratégies pour améliorer la précision et la pertinence des réponses et rendre votre travail plus efficace.