Santé

ViVE 2023 : 5 points à retenir sur ChatGPT, la confidentialité des données et plus encore

ViVE 2023 : 5 points à retenir sur ChatGPT, la confidentialité des données et plus encore
Écrit par abadmin

Les entreprises de santé numérique et les investisseurs ont afflué à Nashville, Tennessee, cette semaine pour la deuxième conférence annuelle ViVE. Les sujets d’actualité parmi la foule de 7 500 personnes comprenaient les inquiétudes d’être « effrayants », l’économie et si ChatGPT est aussi bon que son accumulation. Voici cinq plats à emporter.

1. ChatGPT est tout ce dont les gens veulent parler.

Le potentiel des applications d’IA génératives telles que ChatGPT et GPT-4 dans le domaine de la santé a été le principal sujet de conversation. Les participants avaient deux écoles de pensée sur le potentiel de ChatGPT dans les soins de santé, ce qui a été bien résumé par Micky Tripathi, chef du Bureau du coordonnateur national des technologies de l’information sur la santé.

« Je pense que nous ressentons tous une excitation énorme et vous voulez aussi ressentir une peur énorme », a déclaré Tripathi.

Michael Hasselberg, directeur de la santé numérique au University of Rochester Medical Center à New York, a déclaré qu’il croyait au pouvoir de l’IA générative. Les grands modèles d’IA linguistique du développeur de ChatGPT, OpenAI, ont « des années-lumière d’avance » sur ce qu’il a vu sur le marché de diverses startups automatisant les processus administratifs et de cycle de revenus des soins de santé.

« C’est tellement facile à utiliser. Je n’ai aucune formation formelle en tant qu’informaticien et je peux programmer avec OpenAI », a déclaré Hasselberg. « Je peux créer assez rapidement une application qui peut résoudre bon nombre des problèmes auxquels sont actuellement confrontés mes employés. Avant, je regardais toutes ces entreprises pour essayer de résoudre [those problems] pour moi. »

Hasselberg et Steve Kraus, partenaire de la société de capital-risque Bessemer Venture Partners, ont déclaré que les modèles d’IA avaient beaucoup de potentiel pour automatiser des processus tels que l’autorisation préalable.

Mais il y avait une bonne part de scepticisme et même de peur des modèles d’IA générative. Tripathi a déclaré que lorsqu’ils sont utilisés de manière inappropriée, les algorithmes peuvent perpétuer les problèmes d’équité et de qualité en matière de santé. Tom Cassels, PDG de la branche conseil et conseil de Rock Health, a accepté.

« Ce qui est dangereux, c’est [digital health companies] qui touchent à la pratique clinique et envisagent d’introduire des modèles de données volumineuses en utilisant les directives et informations médicales biaisées existantes », a déclaré Cassels.


Source

https://www.modernhealthcare.com/digital-health/vive-2023-takeaways-chatgpt-data-privacy-gpt4

A propos de l'auteur

abadmin

Laissez un commentaire

  • king crab atl
  • king crab menu
  • ffxiv kholusian king crab