5 startups de l'IA à la tête des MLops

Parallèlement à la demande énorme et croissante d’applications d’IA, il existe une soif complémentaire d’infrastructures et de logiciels de support qui rendent les applications d’IA possibles. De la préparation des données et de la formation au déploiement et au-delà, un certain nombre de startups sont arrivées sur scène pour vous guider dans le monde naissant du MLops. Voici un aperçu de certaines des plus intéressantes qui rendront vos initiatives d’IA plus réussies.

Poids et biais

Weights & Biases devient une présence de poids dans l’espace d’apprentissage automatique, en particulier parmi les scientifiques des données qui souhaitent un service de suivi d’expériences complet et bien conçu. Premièrement, W&B a une intégration prête à l’emploi avec presque toutes les bibliothèques d’apprentissage automatique populaires (en plus, il est assez facile d’ajouter des métriques personnalisées). Deuxièmement, vous pouvez utiliser autant de W&B que vous le souhaitez – en tant que version turbo de Tensorboard, ou aussi comme moyen de contrôler et de rendre compte du réglage des hyperparamètres, ou aussi comme centre de collaboration où tous les membres de votre équipe de science des données peuvent voir les résultats ou reproduire les expériences menées par d’autres membres de l’équipe. Pour l’entreprise, W&B peut même être utilisé comme plate-forme de gouvernance et de provenance, fournissant une piste d’audit dont les entrées, les transformations et les expériences ont été utilisées pour construire un modèle au fur et à mesure que le modèle passe du développement à la production. Vos data scientists sont certainement déjà au courant. W&B, et s’ils ne l’utilisent pas au sein de l’entreprise, ils veulent certainement l’être. Si OpenAI, GitHub, Salesforce et Nvidia utilisent W&B, pourquoi pas vous ?

Seldon

Seldon est une autre entreprise avec une offre de base ouverte qui offre des fonctionnalités d’entreprise supplémentaires en plus. Le composant open source est Seldon Core, un moyen natif du cloud de déployer des modèles avec des fonctionnalités avancées telles que des chaînes arbitraires de modèles pour l’inférence, les déploiements Canary, les tests A/B et les bandits à plusieurs bras, et la prise en charge de frameworks comme TensorFlow, Scikit- apprendre, et XGBoost prêt à l’emploi. Seldon propose également la bibliothèque open source Alibi pour l’inspection et l’explication des modèles d’apprentissage automatique, contenant une variété de méthodes pour mieux comprendre comment les prédictions de modèle sont formées. Une caractéristique intéressante de Seldon Core est qu’il est incroyablement flexible dans la façon dont il s’intègre votre pile technologique. Vous pouvez utiliser Seldon Core seul ou l’insérer dans un déploiement Kubeflow. Vous pouvez déployer des modèles créés via MLFlow ou utiliser le serveur d’inférence Triton de Nvidia, ce qui vous permet d’exploiter Seldon de différentes manières pour un gain maximal. Pour l’entreprise, il y a Seldon Deploy, qui fournit une suite complète d’outils pour la gouvernance des modèles, y compris des tableaux de bord, des workflows audités et une surveillance des performances. Cette offre s’adresse aux data scientists, aux SRE, ainsi qu’aux managers et auditeurs. Vous ne serez pas entièrement surpris de découvrir que l’accent mis par Seldon sur l’audit et l’explication a fait de cette startup basée au Royaume-Uni un succès auprès des banques, avec Barclays et Capital One utilisant leurs services. Bien qu’il existe de nombreux concurrents dans l’espace de déploiement de modèles, Seldon fournit un ensemble complet de fonctionnalités et un accent très important sur le déploiement de Kubernetes dans son offre de base, ainsi que des ajouts d’entreprise utiles pour les entreprises qui souhaitent une solution plus complète.

Pomme de pin / Zilliz

La recherche de vecteurs est brûlante en ce moment. Grâce aux progrès récents de l’apprentissage automatique dans des domaines tels que le texte, les images et l’audio, la recherche vectorielle peut avoir un effet transformateur sur la recherche. Par exemple, une recherche de « Kleenex » peut renvoyer la sélection de tissus d’un détaillant sans avoir besoin de règles personnalisées de remplacement de synonymes, car le modèle de langage utilisé pour générer une intégration vectorielle placera la requête de recherche dans la même zone de l’espace vectoriel.. Et exactement le même processus peut être utilisé pour localiser des sons ou effectuer une reconnaissance faciale.[ Also on InfoWorld : 3 AI startups revolutionizing NLP ]Bien que les logiciels de moteur de recherche actuels ne soient pas souvent optimisés pour effectuer une recherche vectorielle, le travail se poursuit dans Elastic et Apache Lucene, et une multitude d’alternatives open source offrent la capacité de recherche vectorielle à grande vitesse et à grande échelle (par exemple NMSLib, FAISS, Annoy). En outre, de nombreuses startups ont vu le jour pour alléger une partie du fardeau de la configuration et de la maintenance des moteurs de recherche vectoriels de votre service des opérations médiocres. Pinecone et Zilliz sont deux de ces startups fournissant une recherche vectorielle pour l’entreprise. Pinecone est une offre SaaS pure, où vous téléchargez les intégrations produites par vos modèles d’apprentissage automatique sur leurs serveurs et envoyez des requêtes via leur API. Tous les aspects de l’hébergement, y compris la sécurité, la mise à l’échelle, la vitesse et d’autres problèmes opérationnels, sont gérés par l’équipe Pinecone, ce qui signifie que vous pouvez être opérationnel avec un moteur de recherche de similarité en quelques heures. Bien que Zilliz ait une solution cloud gérée à venir bientôt, sous la forme de Zillow Cloud, la société adopte l’approche open core avec une bibliothèque open source appelée Milvus. Milvus enveloppe des bibliothèques couramment utilisées telles que NMSLib et FAISS, fournissant un déploiement simple d’un moteur de recherche vectorielle avec une API expressive et facile à utiliser que les développeurs peuvent utiliser pour créer et maintenir leurs propres index vectoriels.

Grid.ai

Grid.ai est l’idée originale des personnes derrière PyTorch Lightning, un framework de haut niveau populaire construit sur PyTorch qui fait abstraction d’une grande partie du passe-partout PyTorch standard et facilite la formation sur un ou 1000 GPU avec quelques commutateurs de paramètres. Grid.ai utilise la simplification apportée par PyTorch Lightning et s’en débarrasse, permettant aux data scientists d’entraîner leurs modèles à l’aide de ressources GPU transitoires de manière aussi transparente que l’exécution de code localement. Voulez-vous exécuter un balayage d’hyperparamètres sur 200 GPU à la fois ? Grid.ai vous permettra de le faire, en gérant tout l’approvisionnement (et la mise hors service) des ressources d’infrastructure en arrière-plan, en s’assurant que vos ensembles de données sont optimisés pour une utilisation à grande échelle et en fournissant des rapports de métriques, le tout regroupé avec un -utiliser l’interface utilisateur Web. Vous pouvez également utiliser Grid.ai pour créer des instances pour le développement interactif, soit sur la console, soit en étant attaché à un Jupyter Notebook.Grid.ai. Les efforts de simplification de la formation de modèles à grande échelle seront utiles aux entreprises qui ont régulièrement besoin de lancer des sessions de formation qui occupent 100 GPU ou plus à la fois, mais il reste à voir combien de ces clients sont là. Néanmoins, si vous avez besoin d’un pipeline de formation rationalisé pour vos scientifiques des données qui minimise les coûts du cloud, vous devez absolument examiner Grid.ai de près.

Robot de données

DataRobot aimerait être propriétaire du cycle de vie de l’IA de votre entreprise, de la préparation des données au déploiement de la production, et l’entreprise en fait un bon argument. Le pipeline de préparation des données de DataRobot a toutes les fonctionnalités en termes d’interface utilisateur Web que vous attendez pour rendre l’enrichissement des données un jeu d’enfant, en plus il comprend des installations pour aider les utilisateurs (novices ou experts) en profilant, en regroupant et en nettoyant automatiquement les données avant il est introduit dans un modèle. DataRobot dispose d’un système d’apprentissage automatique automatisé qui entraînera pour vous une série de modèles par rapport à des cibles, vous permettant de sélectionner le modèle généré le plus performant ou l’un des vôtres téléchargé sur la plate-forme. En ce qui concerne le déploiement, le module MLops intégré de la plate-forme suit tout, de la disponibilité à la dérive des données au fil du temps, afin que vous puissiez toujours voir les performances de vos modèles en un coup d’œil. Il existe également une fonctionnalité appelée Humble AI qui vous permet de mettre des garde-corps supplémentaires sur vos modèles au cas où des événements à faible probabilité se produiraient au moment de la prédiction, et bien sûr, ceux-ci peuvent également être suivis via le module MLops. Dans une légère différence par rapport à la plupart des autres startups sur cette liste, DataRobot s’installera sur bare metal dans vos propres centres de données et clusters Hadoop, ainsi que dans des offres de cloud privé et géré, montrant qu’il est déterminé à rivaliser dans tous les domaines des batailles à venir de la plate-forme d’IA d’entreprise, au service des clients de le démarrage rapide de la société établie Fortune 500. MLops est l’un des domaines les plus en vogue de l’IA en ce moment – et le besoin d’accélérateurs, de plates-formes, de gestion et de surveillance ne fera qu’augmenter à mesure que de plus en plus d’entreprises entreront dans l’espace de l’IA. Si vous rejoignez la ruée vers l’or de l’IA, vous pouvez vous tourner vers ces cinq startups pour fournir vos pioches et vos haches !

Copyright © 2021 IDG Communications, Inc.