Zubnet AIApprendreWiki › Jina AI
Compagnies

Jina AI

Aussi appelé : Embeddings, API Reader, rerankers
Entreprise d'IA basee a Berlin specialisee dans la recherche et les embeddings. Leurs modeles jina-embeddings et leur Reader API (qui convertit n'importe quelle URL en texte pret pour les LLM) sont devenus une infrastructure essentielle pour les pipelines RAG a travers le monde.

Pourquoi c’est important

Jina AI a construit l'infrastructure d'embeddings et de recuperation dont des milliers de systemes RAG dependent, prouvant qu'un outillage de recherche specialise peut avoir plus de valeur que d'essayer de tout faire. Leurs modeles d'embeddings a contexte long et leur Reader API resolvent deux des problemes pratiques les plus ardus en recherche alimentee par IA — representer fidelement de longs documents et extraire du texte propre de pages web desordonnees — et ils l'ont fait tout en gardant les modeles de base en open source. Dans un ecosysteme domine par les laboratoires generalistes, Jina demontre qu'il y a une veritable entreprise a faire une seule chose exceptionnellement bien et a la rendre tres simple a utiliser pour les developpeurs.

En profondeur

Jina AI a ete fondee en 2020 par Han Xiao, ancien responsable de l'equipe TensorFlow chez Tencent et ingenieur en apprentissage automatique ayant precedemment travaille chez SAP Research. Basee a Berlin, en Allemagne, l'entreprise a debute avec un projet open source ambitieux : un cadre de recherche neuronale qui permettrait aux developpeurs de construire des systemes de recherche alimentes par l'apprentissage profond plutot que par la correspondance de mots-cles. Le cadre Jina original etait techniquement impressionnant mais a veritablement trouve son assise commerciale quand l'entreprise a pivote vers les modeles d'embeddings et les API pour developpeurs. Jina a leve une Serie A de 30 millions de dollars en 2021 menee par Canaan Partners, et a continue de croitre regulierement en trouvant les points d'equilibre pratiques ou l'infrastructure de recherche rencontre les besoins de l'ere des LLM.

Les embeddings comme activite principale

Le produit phare de Jina est leur famille de modeles jina-embeddings. Les modeles jina-embeddings-v2, publies en 2023, etaient parmi les premiers modeles d'embeddings open source a prendre en charge des longueurs de contexte de 8 192 tokens — huit fois ce que la plupart des concurrents offraient a l'epoque. Cela avait une importance enorme pour les systemes de generation augmentee par recuperation (RAG), ou l'on doit encoder de longs documents sans les decouper en petits fragments qui perdent leur contexte. Les modeles v3 sont alles plus loin avec un entrainement multi-taches, permettant a un seul modele de gerer differents scenarios d'embeddings — recuperation, classification, regroupement — en ajustant un parametre de tache au moment de l'inference. Jina a aussi publie des modeles de reordonnancement bases sur ColBERT (jina-reranker) et des modeles d'encodeur croise qui amelioraient considerablement la qualite de la recuperation lorsqu'ils etaient utilises comme filtre de deuxieme etape apres la recherche initiale par embeddings.

Le Reader API et les outils pratiques

Le mouvement produit le plus astucieux de Jina a peut-etre ete le Reader API, lance en 2024. Il prend n'importe quelle URL et renvoie une extraction de texte propre et prete pour les LLM — pas de publicites, pas de barre de navigation, pas de bannieres de cookies, juste le contenu. Les developpeurs construisant des pipelines RAG ou des agents IA ayant besoin de lire des pages web l'ont immediatement adopte, car le scraping web est l'un de ces problemes qui est facile dans le cas simple et cauchemardesque a grande echelle. Le Reader API gere le rendu JavaScript, les murs payants (dans la mesure legalement possible) et les mises en page complexes, retournant du Markdown structure que les modeles de langage peuvent utiliser directement. Combine a leur API d'embeddings et leur reordonnanceur, Jina offre une pile coherente pour la moitie « recuperation » de tout systeme RAG, ce qui est un positionnement intelligent quand chaque application d'IA a besoin d'ancrer ses sorties dans de vrais documents.

Equilibre entre open source et commercial

Jina marche sur un fil interessant entre l'open source et le produit commercial. Leurs modeles d'embeddings sont disponibles sur Hugging Face avec des licences Apache 2.0, ce qui a genere une adoption massive — les modeles jina-embeddings ont ete telecharges des millions de fois. Le volet commercial est l'API hebergee : les memes modeles, mais geres, optimises et disponibles a grande echelle sans le casse-tete de l'approvisionnement en GPU. C'est la meme strategie qui a fonctionne pour Elastic (Elasticsearch en open source, Elastic Cloud en commercial) et MongoDB, et elle fonctionne parce que la plupart des entreprises prefereraient payer des frais raisonnables par jeton plutot que de gerer leur propre infrastructure GPU. Jina offre aussi une API de classification et une API de segmentation pour le decoupage intelligent de documents, completant leur boite a outils pour les pipelines de traitement documentaire.

Position dans l'ecosysteme

Jina rivalise avec les modeles d'embeddings d'OpenAI, Embed de Cohere, Gecko de Google et Voyage AI dans l'espace des API d'embeddings. Leurs differenciateurs sont le support de contexte long, la performance multilingue (particulierement forte en chinois, allemand et d'autres langues non anglaises grace a leur curation de donnees d'entrainement multilingues depuis Berlin) et une structure tarifaire qui sous-cote significativement les grands acteurs. Ils ne cherchent pas a construire un laboratoire de modeles fondamentaux ni a rivaliser dans le clavardage — leur pari est que la recherche, la recuperation et la comprehension documentaire constituent la couche d'infrastructure dont chaque application d'IA a besoin, et qu'une entreprise specialisee peut construire de meilleurs outils pour cela qu'un laboratoire generaliste qui traite les embeddings comme un produit secondaire. C'est un pari plus petit et moins glamour que de construire le prochain GPT, mais il pourrait s'averer plus defensible.

Concepts connexes

← Tous les termes
← Inférence Kling AI →
ESC