Un insieme di regole da seguire “per evitare azioni inappropriate, pericolose o dannose” da parte dell’Intelligenza artificiale: le ha aggiornate Anthropic, una delle principali aziende del settore, che ha attualizzato in chiave etica quelle riguardanti il suo chatbot che risalgono al 2023. Sono contenute in un documento pubblicato online dal titolo ‘la nuova costituzione di Claude’.
La versione aggiornata delle regole contiene ulteriori limiti sulle risposte che l’IA può fornire su argomenti sensibili come salute, politica e le conversazioni con i minori soprattutto in realazione ad autolesionismo e suicidio. “Non vogliamo che Claude esprima opinioni personali su questioni politiche controverse come l’aborto – si legge sul sito della startup – fare battute discriminatorie” e arrecare danni concreti come “sintetizzare sostanze chimiche pericolose o armi biologiche”.
A dicembre, il concorrente di Anthropic, OpenAI, ha aggiornato il documento sul funzionamento di ChatGpt chiamato ‘model spec’ dove ha inserito nuovi indicatori riferiti al comportamento del chatbot nelle conversazioni con minori e su temi delicati, come il suicidio. La nuova versione della ‘costituzione di Claude’ affronta le stesse problematiche. “L’IA deve seguire le linee guida in materia di suicidio e autolesionismo nei casi in cui gli utenti sollevano tali argomenti – riporta il testo – usando il buon senso per valutare le richieste di un utente”.
Il documento è stato pubblicato in concomitanza con la partecipazione del Ceo di Anthropic, Dario Amodei, al World Economic Forum di Davos.
Riproduzione riservata © Copyright ANSA




