Tag: LLM

Affichage 1-12 sur 47

TutorielsRoyaume-Uni
Ouvrir
08 mai 20269 min de lecturePlaybook AgentsIntermédiaire90 min build

Guide pilote pour raiyanyahya/kit : tester un contexte IA partagé entre éditeur, navigateur, mail, terminal et agents

Runbook pratique pour piloter raiyanyahya/kit — un bundle open-source (éditeur, navigateur, mail, terminal, agents). Guide pas à pas pour installation locale, métriques à mesurer et petit pilote pour réduire les changements de contexte.

TutorielsFrance
Ouvrir
02 mai 20267 min de lecturePlaybook AgentsIntermédiaire480 min build

Exploration agentique d'espaces de PDE avec des modèles fondamentaux latents — guide pratique (d'après arXiv:2604.09584)

Traduction et adaptation en français du pattern présenté dans arXiv:2604.09584 : associer un modèle fondamental latent (LFM) — un surrogate génératif compact pour simulations paramétrées — à une orchestration multi‑agent pour explorer automatiquement des espaces de solutions de PDE à coût réduit.

ActualitésRoyaume-Uni
Ouvrir
02 mai 20266 min de lecturePlaybook AgentsIntermédiaire

AWS Strands Agents : conception agent→outil qui a réduit l’utilisation de tokens LLM d’environ 96%

Résumé et guide pratique pour équipes et développeurs : l’approche « agent→outil » de Strands externalise l’extraction et la synthèse hors des prompts, réduisant fortement l’usage mesuré de tokens et améliorant coût, testabilité et protection des données. Source : thenewstack.io/strands-agents-tool-design

TutorielsRoyaume-Uni
Ouvrir
29 avr. 20268 min de lecturePlaybook AgentsIntermédiaire120 min build

Ragnerock (bêta publique) — créer des workflows LLM auditables pour convertir PDF, images et fichiers bruts en tables SQL et résultats prêts pour Jupyter (contexte UK)

Testez la bêta publique de Ragnerock pour transformer des PDF, images et HTML en enregistrements validés et auditables stockés dans votre base de données — interrogeables en SQL et accessibles depuis des notebooks Jupyter.

TutorielsFrance
Ouvrir
22 avr. 20268 min de lectureBrief sortie modèleIntermédiaire45 min build

LibreThinker — copilote IA pour LibreOffice Writer avec modèle gratuit intégré et support Ollama/BYOK

Installez LibreThinker pour ajouter un copilote IA directement dans la barre latérale de LibreOffice Writer. Livré avec un modèle gratuit en ligne (sans inscription), prend en charge les clés API fournisseurs (BYOK) et les instances Ollama locales ; plus de 10 000 téléchargements déclarés.

TutorielsRoyaume-Uni
Ouvrir
21 avr. 20267 min de lecturePlaybook AgentsIntermédiaire240 min build

Prototype CGR minimal — Spatial Atlas : agent spatial avec calculs déterministes

Guide pratique en français (contexte UK) pour construire un prototype « Compute‑Grounded Reasoning » inspiré de Spatial Atlas (arXiv:2604.12102). Séparez les calculs spatiaux déterministes de la génération linguistique pour réduire les hallucinations et garder une piste d'audit.

ActualitésFrance
Ouvrir
16 avr. 20265 min de lectureBrief sortie modèleDébutant

L’échange filmé de François Ruffin avec Claude met en lumière les limites des démos LLM pour des affirmations économiques

Le 14 avril 2026, François Ruffin a publié une courte vidéo montrant un échange avec le chatbot Claude (Anthropic). Numerama a relevé que le bot reprenait le cadrage du député sans apporter de données locales ni de modèle économique vérifié — rappel utile : un modèle de langage n’est pas un économiste.

TutorielsFrance
Ouvrir
07 avr. 20267 min de lecturePlaybook AgentsIntermédiaire180 min build

Implémenter des garde‑fous pré‑ et post‑LLM pour éviter les fuites de PII et attraper les hallucinations

Guide pas à pas pour ajouter deux garde‑fous autour de chaque appel LLM : un pré‑LLM qui redige/filtre pour empêcher la fuite de PII et un post‑LLM qui vérifie les sorties et rattrape les hallucinations avant qu'elles n'atteignent l'utilisateur.

TutorielsFrance
Ouvrir
04 avr. 20266 min de lecturePlaybook AgentsIntermédiaire60 min build

ClamBot : exécuter du JavaScript généré par un LLM dans un sandbox WASM (QuickJS + Wasmtime)

Tutoriel local et guide de mise en route pour ClamBot : exécuter en sécurité du JavaScript produit par un modèle LLM à l'intérieur d'un module QuickJS compilé en WebAssembly et exécuté par Wasmtime. Le sandbox limite l'exposition de l'hôte et force des bindings explicites.

TutorielsÉtats-Unis
Ouvrir
02 avr. 20266 min de lecturePlaybook AgentsIntermédiaire240 min build

Pourquoi commencer par un serveur MCP avant de créer un agent IA personnalisé — leçons pratiques

Résumé pratique (contexte US) : validez la demande pour des actions produit pilotées en langage naturel en exposant d’abord un endpoint étroit et authentifié (un « MCP server »). PostHog rapporte que 34 % des tableaux de bord créés par l’IA ont transité par leur MCP — utilisez ce signal avant d’investir dans un agent intégré complet.

TutorielsFrance
Ouvrir
27 mars 20267 min de lectureDeep dive outillageIntermédiaire240 min build

Prototyper un ensemble de LLM pondéré par la confiance au niveau des tokens

Prototype pas à pas pour exécuter plusieurs LLM en parallèle, utiliser la confiance au niveau du token (logprobs / entropie) pour pondérer et assembler les sorties, et reproduire le gain documenté par Sup AI sur le benchmark HLE (52,15% vs 44,74%).