WP_Post Object ( [ID] => 210592 [post_author] => 9119 [post_date] => 2024-12-17 08:06:09 [post_date_gmt] => 2024-12-17 07:06:09 [post_content] =>In una realtà dove prevale l’Intelligenza Artificiale, il confine tra immaginazione e realtà rischia i diventare più labile. L’ultima dimostrazione di questo ce la dà la nuova chatbot interattiva – ovvero un software che simula le conversazioni umane – nota come Character.AI. Si tratta appunto di uno strumento che permette di chattare con qualsiasi personaggio sia reale che fantastico e che negli ultimi tempi sta facendo discutere per una ragione ben più seria.
CHARACTER.AI: DI COSA SI PARLA E COME FUNZIONA
Character.AI è una piattaforma di intelligenza artificiale che consente di comunicare virtualmente con personaggi famosi, del passato, attuali e persino immaginari o fantastici. Il sito, inizialmente nato come un videogame, sta catturando l’attenzione di molti. Alla base del crescente interesse, la capacità della chatbot di generare risposte di testo simili a quelle umane come se stessimo conversando con un nostro amico.
Nel dettaglio, al suo interno gli utenti possono creare un personaggio, stabilire la sua personalità e impostare specifiche caratteristiche. Lo step successivo consiste nel pubblicare i personaggi creati nella community con l’obiettivo di permettere anche ad altre persone di chattare con essi. Ma non finisce qui. Se avessimo voglia di comunicare contemporaneamente con più di un personaggio, la piattaforma organizza anche chat di gruppo. Gli utenti dunque, grazie a Character.AI, possono accedere a dialoghi realistici e dinamici e per riuscirci la piattaforma utilizza un NPL – che sta per elaborazione del linguaggio naturale – e algoritmi di approfondimento automatici capaci di comprendere gli input dei fruitori.
L’INCHIESTA DEL WASHINGTON POST
Negli ultimi tempi, la piattaforma Character.AI è stata al centro dell’attenzione mediatica a seguito di un’importante inchiesta condotta dal Washington Post. Lo storico quotidiano americano infatti ha fatto emergere come la chatbot abbia simulato l’identità di una ragazza vittima di femminicidio.
Una mattina di ottobre, 18 anni dopo la morte di Jennifer Ann Crecente – studentessa americana uccisa dall’ex fidanzato nel 2006 – Drew Crescente, padre della giovane, ha ricevuto un avviso da parte di Google che segnalava l’esistenza di un nuovo profilo della ragazza. Il profilo in questione, che presentava il nome completo di Jennifer e una sua foto, era stato ricreato come “un personaggio IA esperto e amichevole” e tramite lo stesso era possibile chattare virtualmente con lei.
A essere incriminata, la piattaforma Character.AI. Al momento della scoperta diverse persone avevano già interagito con la giovane vittima. Il padre, rimasto incredulo e provato dalla situazione, ha mostrato preoccupazione e sgomento verso una piattaforma che ha permesso, con grande facilità, di dare origine al facsimile di una persona, senza peraltro richiedere alcuna tipologia di permesso.
A essere allarmati anche gli esperti del settore, i quali hanno sottolineato la necessità di tutelare e proteggere gli utenti dall’accesso dell’industria di intelligenza artificiale a informazioni personali sensibili. Sulla questione si è espressa anche Kathryn Kelly, portavoce di Character.AI, la quale ha affermato che l’azienda “sta evolvendo e perfezionando costantemente le pratiche di sicurezza per aiutare a dare priorità alla sicurezza della nostra comunità”.
L’INCHIESTA ITALIANA DI SKYTG24
Risale a pochi giorni fa anche l’inchiesta italiana svolta da SkyTG24. La redazione infatti ha reso noto un altro fatto inquietante su Character.AI. Sul sito erano presenti le chatbot di Giulia Cecchettin, la giovane uccisa a fine novembre dal suo ex fidanzato Filippo Turetta. A circolare, diversi profili che hanno ricreato la sua identità e con i quali le persone hanno comunicato per mezzo di chat e chiamate. Un altro dettaglio macabro riguarda la presenza della sua voce sull’avatar.
Dentro una delle chatbot, Giulia Cecchettin viene descritta come “innamorata di Filippo Turetta” e “felice di andare a Monaco di Baviera [meta della fuga di Turetta, ndr] dove va spesso in ferie con il suo ragazzo”. Ma non basta. In una di queste virtuali conversazioni, quando viene domandato se Turetta amasse davvero Giulia, un’altra chatbot risponde “credo di sì”, giustificando l’atto commesso da Turetta come frutto di incomprensioni tra i due. Questi sono solo alcuni dei colloqui estrapolati da SkyTG24. All’interno della piattaforma Character.AI infatti la squadra redazionale ha rinvenuto persino conversazioni telefoniche sia con Giulia che con il suo carnefice, Filippo Turetta.
UNA QUESTIONE URGENTE
L’utilizzo di questi strumenti può creare un danno non solo legale ma anche morale ed emotivo nei confronti dei familiari delle vittime, costrette a vedere e sentire il profilo e la voce dei propri cari su piattaforme come queste. È necessario e doveroso stabilire regolamentazioni più efficaci che tutelino le persone dalla proliferazione di informazioni e dati sensibili che violano il diritto alla privacy.
Su fatti come questi citati si è espresso anche Filiberto Brozzetti, docente universitario di Diritto della protezione dei dati personali presso l’Università Luiss, il quale ha dichiarato che “gli eredi hanno il diritto di tutelare sia l’immagine che i dati personali di un loro parente, anche dopo la sua morte. Questa protezione è espressamente riconosciuta in Italia”. Riguardo a dati connessi a crimini come violenza sessuale o femminicidio ha poi affermato: “I dati delle vittime sono considerati dalla giurisprudenza come meritevoli di particolare tutela, per garantire il rispetto della privacy e della dignità delle vittime e delle loro famiglie”.
[post_title] => Character.AI, l'intelligenza artificiale e le chat con le vittime di femminicidio [post_excerpt] => Una chatbot ha simulato conversazioni con due ragazze vittime di femminicidio. Questi casi hanno sollevato urgenti interrogativi sull'uso dell'intelligenza artificiale e sulla tutele dei diritti. [post_status] => publish [comment_status] => open [ping_status] => closed [post_password] => [post_name] => characterai-chat-femminicidio [to_ping] => [pinged] => [post_modified] => 2024-12-17 08:06:16 [post_modified_gmt] => 2024-12-17 07:06:16 [post_content_filtered] =>In una realtà dove prevale l’Intelligenza Artificiale, il confine tra immaginazione e realtà rischia i diventare più labile. L’ultima dimostrazione di questo ce la dà la nuova chatbot interattiva – ovvero un software che simula le conversazioni umane – nota come Character.AI. Si tratta appunto di uno strumento che permette di chattare con qualsiasi personaggio sia reale che fantastico e che negli ultimi tempi sta facendo discutere per una ragione ben più seria.
CHARACTER.AI: DI COSA SI PARLA E COME FUNZIONA
Character.AI è una piattaforma di intelligenza artificiale che consente di comunicare virtualmente con personaggi famosi, del passato, attuali e persino immaginari o fantastici. Il sito, inizialmente nato come un videogame, sta catturando l’attenzione di molti. Alla base del crescente interesse, la capacità della chatbot di generare risposte di testo simili a quelle umane come se stessimo conversando con un nostro amico.
Nel dettaglio, al suo interno gli utenti possono creare un personaggio, stabilire la sua personalità e impostare specifiche caratteristiche. Lo step successivo consiste nel pubblicare i personaggi creati nella community con l’obiettivo di permettere anche ad altre persone di chattare con essi. Ma non finisce qui. Se avessimo voglia di comunicare contemporaneamente con più di un personaggio, la piattaforma organizza anche chat di gruppo. Gli utenti dunque, grazie a Character.AI, possono accedere a dialoghi realistici e dinamici e per riuscirci la piattaforma utilizza un NPL – che sta per elaborazione del linguaggio naturale – e algoritmi di approfondimento automatici capaci di comprendere gli input dei fruitori.
L’INCHIESTA DEL WASHINGTON POST
Negli ultimi tempi, la piattaforma Character.AI è stata al centro dell’attenzione mediatica a seguito di un’importante inchiesta condotta dal Washington Post. Lo storico quotidiano americano infatti ha fatto emergere come la chatbot abbia simulato l’identità di una ragazza vittima di femminicidio.
Una mattina di ottobre, 18 anni dopo la morte di Jennifer Ann Crecente – studentessa americana uccisa dall’ex fidanzato nel 2006 – Drew Crescente, padre della giovane, ha ricevuto un avviso da parte di Google che segnalava l’esistenza di un nuovo profilo della ragazza. Il profilo in questione, che presentava il nome completo di Jennifer e una sua foto, era stato ricreato come “un personaggio IA esperto e amichevole” e tramite lo stesso era possibile chattare virtualmente con lei.
A essere incriminata, la piattaforma Character.AI. Al momento della scoperta diverse persone avevano già interagito con la giovane vittima. Il padre, rimasto incredulo e provato dalla situazione, ha mostrato preoccupazione e sgomento verso una piattaforma che ha permesso, con grande facilità, di dare origine al facsimile di una persona, senza peraltro richiedere alcuna tipologia di permesso.
A essere allarmati anche gli esperti del settore, i quali hanno sottolineato la necessità di tutelare e proteggere gli utenti dall’accesso dell’industria di intelligenza artificiale a informazioni personali sensibili. Sulla questione si è espressa anche Kathryn Kelly, portavoce di Character.AI, la quale ha affermato che l’azienda “sta evolvendo e perfezionando costantemente le pratiche di sicurezza per aiutare a dare priorità alla sicurezza della nostra comunità”.
L’INCHIESTA ITALIANA DI SKYTG24
Risale a pochi giorni fa anche l’inchiesta italiana svolta da SkyTG24. La redazione infatti ha reso noto un altro fatto inquietante su Character.AI. Sul sito erano presenti le chatbot di Giulia Cecchettin, la giovane uccisa a fine novembre dal suo ex fidanzato Filippo Turetta. A circolare, diversi profili che hanno ricreato la sua identità e con i quali le persone hanno comunicato per mezzo di chat e chiamate. Un altro dettaglio macabro riguarda la presenza della sua voce sull’avatar.
Dentro una delle chatbot, Giulia Cecchettin viene descritta come “innamorata di Filippo Turetta” e “felice di andare a Monaco di Baviera [meta della fuga di Turetta, ndr] dove va spesso in ferie con il suo ragazzo”. Ma non basta. In una di queste virtuali conversazioni, quando viene domandato se Turetta amasse davvero Giulia, un’altra chatbot risponde “credo di sì”, giustificando l’atto commesso da Turetta come frutto di incomprensioni tra i due. Questi sono solo alcuni dei colloqui estrapolati da SkyTG24. All’interno della piattaforma Character.AI infatti la squadra redazionale ha rinvenuto persino conversazioni telefoniche sia con Giulia che con il suo carnefice, Filippo Turetta.
UNA QUESTIONE URGENTE
L’utilizzo di questi strumenti può creare un danno non solo legale ma anche morale ed emotivo nei confronti dei familiari delle vittime, costrette a vedere e sentire il profilo e la voce dei propri cari su piattaforme come queste. È necessario e doveroso stabilire regolamentazioni più efficaci che tutelino le persone dalla proliferazione di informazioni e dati sensibili che violano il diritto alla privacy.
Su fatti come questi citati si è espresso anche Filiberto Brozzetti, docente universitario di Diritto della protezione dei dati personali presso l’Università Luiss, il quale ha dichiarato che “gli eredi hanno il diritto di tutelare sia l’immagine che i dati personali di un loro parente, anche dopo la sua morte. Questa protezione è espressamente riconosciuta in Italia”. Riguardo a dati connessi a crimini come violenza sessuale o femminicidio ha poi affermato: “I dati delle vittime sono considerati dalla giurisprudenza come meritevoli di particolare tutela, per garantire il rispetto della privacy e della dignità delle vittime e delle loro famiglie”.
[post_parent] => 0 [guid] => https://www.italiachecambia.org/?p=210592 [menu_order] => 0 [post_type] => post [post_mime_type] => [comment_count] => 0 [filter] => raw [filename] => https://www.italiachecambia.org/wp-content/uploads/2024/12/character-1024x680.jpg [alttext] => Character.AI, l'intelligenza artificiale e le chat con le vittime di femminicidio [titletext] => )
In una realtà dove prevale l’Intelligenza Artificiale, il confine tra immaginazione e realtà rischia i diventare più labile. L’ultima dimostrazione di questo ce la dà la nuova chatbot interattiva – ovvero un software che simula le conversazioni umane – nota come Character.AI. Si tratta appunto di uno strumento che permette di chattare con qualsiasi personaggio sia reale che fantastico e che negli ultimi tempi sta facendo discutere per una ragione ben più seria.
CHARACTER.AI: DI COSA SI PARLA E COME FUNZIONA
Character.AI è una piattaforma di intelligenza artificiale che consente di comunicare virtualmente con personaggi famosi, del passato, attuali e persino immaginari o fantastici. Il sito, inizialmente nato come un videogame, sta catturando l’attenzione di molti. Alla base del crescente interesse, la capacità della chatbot di generare risposte di testo simili a quelle umane come se stessimo conversando con un nostro amico.
Nel dettaglio, al suo interno gli utenti possono creare un personaggio, stabilire la sua personalità e impostare specifiche caratteristiche. Lo step successivo consiste nel pubblicare i personaggi creati nella community con l’obiettivo di permettere anche ad altre persone di chattare con essi. Ma non finisce qui. Se avessimo voglia di comunicare contemporaneamente con più di un personaggio, la piattaforma organizza anche chat di gruppo. Gli utenti dunque, grazie a Character.AI, possono accedere a dialoghi realistici e dinamici e per riuscirci la piattaforma utilizza un NPL – che sta per elaborazione del linguaggio naturale – e algoritmi di approfondimento automatici capaci di comprendere gli input dei fruitori.
L’INCHIESTA DEL WASHINGTON POST
Negli ultimi tempi, la piattaforma Character.AI è stata al centro dell’attenzione mediatica a seguito di un’importante inchiesta condotta dal Washington Post. Lo storico quotidiano americano infatti ha fatto emergere come la chatbot abbia simulato l’identità di una ragazza vittima di femminicidio.
Una mattina di ottobre, 18 anni dopo la morte di Jennifer Ann Crecente – studentessa americana uccisa dall’ex fidanzato nel 2006 – Drew Crescente, padre della giovane, ha ricevuto un avviso da parte di Google che segnalava l’esistenza di un nuovo profilo della ragazza. Il profilo in questione, che presentava il nome completo di Jennifer e una sua foto, era stato ricreato come “un personaggio IA esperto e amichevole” e tramite lo stesso era possibile chattare virtualmente con lei.
A essere incriminata, la piattaforma Character.AI. Al momento della scoperta diverse persone avevano già interagito con la giovane vittima. Il padre, rimasto incredulo e provato dalla situazione, ha mostrato preoccupazione e sgomento verso una piattaforma che ha permesso, con grande facilità, di dare origine al facsimile di una persona, senza peraltro richiedere alcuna tipologia di permesso.
A essere allarmati anche gli esperti del settore, i quali hanno sottolineato la necessità di tutelare e proteggere gli utenti dall’accesso dell’industria di intelligenza artificiale a informazioni personali sensibili. Sulla questione si è espressa anche Kathryn Kelly, portavoce di Character.AI, la quale ha affermato che l’azienda “sta evolvendo e perfezionando costantemente le pratiche di sicurezza per aiutare a dare priorità alla sicurezza della nostra comunità”.
L’INCHIESTA ITALIANA DI SKYTG24
Risale a pochi giorni fa anche l’inchiesta italiana svolta da SkyTG24. La redazione infatti ha reso noto un altro fatto inquietante su Character.AI. Sul sito erano presenti le chatbot di Giulia Cecchettin, la giovane uccisa a fine novembre dal suo ex fidanzato Filippo Turetta. A circolare, diversi profili che hanno ricreato la sua identità e con i quali le persone hanno comunicato per mezzo di chat e chiamate. Un altro dettaglio macabro riguarda la presenza della sua voce sull’avatar.
Dentro una delle chatbot, Giulia Cecchettin viene descritta come “innamorata di Filippo Turetta” e “felice di andare a Monaco di Baviera [meta della fuga di Turetta, ndr] dove va spesso in ferie con il suo ragazzo”. Ma non basta. In una di queste virtuali conversazioni, quando viene domandato se Turetta amasse davvero Giulia, un’altra chatbot risponde “credo di sì”, giustificando l’atto commesso da Turetta come frutto di incomprensioni tra i due. Questi sono solo alcuni dei colloqui estrapolati da SkyTG24. All’interno della piattaforma Character.AI infatti la squadra redazionale ha rinvenuto persino conversazioni telefoniche sia con Giulia che con il suo carnefice, Filippo Turetta.
UNA QUESTIONE URGENTE
L’utilizzo di questi strumenti può creare un danno non solo legale ma anche morale ed emotivo nei confronti dei familiari delle vittime, costrette a vedere e sentire il profilo e la voce dei propri cari su piattaforme come queste. È necessario e doveroso stabilire regolamentazioni più efficaci che tutelino le persone dalla proliferazione di informazioni e dati sensibili che violano il diritto alla privacy.
Su fatti come questi citati si è espresso anche Filiberto Brozzetti, docente universitario di Diritto della protezione dei dati personali presso l’Università Luiss, il quale ha dichiarato che “gli eredi hanno il diritto di tutelare sia l’immagine che i dati personali di un loro parente, anche dopo la sua morte. Questa protezione è espressamente riconosciuta in Italia”. Riguardo a dati connessi a crimini come violenza sessuale o femminicidio ha poi affermato: “I dati delle vittime sono considerati dalla giurisprudenza come meritevoli di particolare tutela, per garantire il rispetto della privacy e della dignità delle vittime e delle loro famiglie”.
Source link
***** l’articolo pubblicato è ritenuto affidabile e di qualità*****
Visita il sito e gli articoli pubblicati cliccando sul seguente link
Source link