Introduction
La startup californienne Kintsugi a développé une intelligence artificielle (IA) capable de détecter les signes de dépression et d'anxiété à partir de la parole d'une personne. Cependant, après avoir échoué à obtenir l'approbation de la FDA, l'entreprise a décidé de fermer et de rendre sa technologie open-source.
Contexte Technique
Les évaluations de santé mentale reposent encore largement sur des questionnaires et des entretiens cliniques, plutôt que sur des tests de laboratoire ou des scans. La technologie de Kintsugi analyse la façon dont une personne parle, en utilisant des modèles d'apprentissage automatique pour détecter des changements subtils dans la parole qui pourraient indiquer des problèmes de santé mentale. L'entreprise a présenté ses résultats dans des recherches examinées par des pairs, qui montrent des résultats globalement conformes aux outils de dépistage établis pour la dépression.
La FDA a un processus d'approbation appelé « De Novo » pour les dispositifs médicaux novateurs et à faible risque, mais ce processus peut prendre des années et nécessite une grande quantité de données et de révision réglementaire. La startup a dépensé beaucoup de temps à enseigner à la FDA sur l'IA, mais le cadre réglementaire est mal adapté aux systèmes d'IA, qui nécessitent une mise à jour et une optimisation constantes.
Analyse et Implications
La fermeture de Kintsugi soulève des préoccupations quant à la manière dont les startups peuvent naviguer dans le processus d'approbation de la FDA, en particulier pour les produits d'IA. La mise en open-source de la technologie de l'entreprise soulève également des inquiétudes quant à une utilisation potentielle abusive, car les outils conçus pour détecter les signes de dépression ou d'anxiété pourraient être déployés en dehors des cadres cliniques sans les garanties nécessaires.
Les experts estiment que les systèmes basés sur la voix sont imparfaits et comportent un risque raisonnable d'erreurs, en particulier pour des conditions comme la dépression, qui se manifestent différemment selon les individus, les langues et les contextes culturels. La diversité et la structure des données de parole utilisées pour la formation des modèles sont également cruciales.
Perspective
La fermeture de Kintsugi est un exemple de la façon dont les startups peuvent avoir du mal à naviguer dans le processus d'approbation de la FDA, en particulier pour les produits d'IA. Cependant, la mise en open-source de la technologie de l'entreprise pourrait permettre à d'autres de poursuivre le travail et de développer de nouveaux outils pour la détection de la dépression et de l'anxiété. Il est important de surveiller les prochaines étapes et les limites de cette technologie pour garantir qu'elle soit utilisée de manière responsable et efficace.