Une chose à laquelle je pense récemment, c’est la façon dont les gens négligent souvent une partie importante de l’infrastructure de l’IA, à savoir le pipeline de données.


La plupart des gens se concentrent sur les modèles eux-mêmes, mais les modèles ne s’améliorent que lorsque les données qui les alimentent continuent d’évoluer.
C’est là que @PerceptronNTWK devient intéressant pour moi.
Au lieu de dépendre de jeux de données statiques contrôlés par quelques fournisseurs centralisés, le réseau considère la génération de données comme un processus continu.
Les participants aident à collecter des données brutes du web provenant de tout Internet.
Ensuite, le protocole travaille à affiner ces informations en jeux de données structurés dont les systèmes d’IA peuvent réellement apprendre.
De mon point de vue, cela crée un flux de données plus dynamique.
À mesure que plus de participants contribuent, le jeu de données continue de s’améliorer et de s’étendre.
Ce type de système pourrait aider les modèles d’IA à rester à jour avec des informations en temps réel plutôt que de se fier uniquement à de vieux jeux de données fixes.
Voir l'original
post-image
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler