Scienza

ChatGPT, Nature e le cinque regole prioritarie per gestire l’applicazione

Il rischio, si legge, è che questi programmi rischiano di stravolgere le regole alla base della scienza, se dovessero essere lasciati soli a progettare esperimenti o a decidere se un articolo scientifico meriti o no la pubblicazione.

È capace di scrivere canzoni e poesie, di rispondere a domande di cultura generale e anche di farsi intervistare come ha dimostrato ilfattoquotidiano.it. In futuro potrebbe anche progettare test scientifici, ma prima di questo bisogna approntare una serie di regole prioritarie, come suggerisce la rivista Nature in un articolo. È stato già segnalato l’alto rischio di errori perché i contenuti arrivano ovviamente da in Internet. E così la scienza mette alla prova ChatGPT, l’applicazione dell’Intelligenza artificiale (IA) capace di conversare con gli esseri umani rilasciata alla fine del 2022 e il cui sviluppo è già chiaramente inarrestabile. Anche gli errori sono ancora tanti, come rileva un’analisi condotta dalla rivista Nature sul suo sito. Il rischio, si legge, è che questi programmi rischiano di stravolgere le regole alla base della scienza, se dovessero essere lasciati soli a progettare esperimenti o a decidere se un articolo scientifico meriti o no la pubblicazione.

Tuttavia la conclusione non è pessimista: le potenzialità dell’intelligenza artificiale sono davvero molte e l’importante è stabilire fin da adesso delle regole per poterla utilizzare al meglio. Alcuni ricercatori stanno utilizzando ChatGPT o altri programmi simili, chiamati chatbot, per scrivere saggi e discorsi, per sintetizzare gli articoli che leggono o per prendere appunti sui loro esperimenti. Questo significa che i chatbot ogni giorno vengono alimentati con dati e informazioni che permettono loro di imparare. Vale a dire, osserva Nature, che “presto questa tecnologia si evolverà al punto da poter progettare esperimenti, scrivere e completare manoscritti, condurre peer review e supportare decisioni editoriali per accettare o rifiutare manoscritti”. Per questo servono regole e sono almeno cinque quelle da cui, secondo la rivista, bisogna cominciare. La prima prevede che i risultato prodotti da un chatbot siano sottoposti a una verifica umana; la seconda che questi programmi siano utilizzati in modo responsabile, trasparente e onesto; la trasparenza è d’obbligo anche nella proprietà dei chatbot; la quarta regola prevede che si utilizzino al meglio tutti i vantaggi che l’IA potrà offrire e, infine, bisognerà estendere il più possibile i dibattito su questo tema perché aumenti la consapevolezza nella società.

L’articolo su Nature