Page 62 - Rotary Oggi gennaio-febbraio 2025
P. 62

I nostri Soci

                                                L’Intelligenza Artificiale (IA) è ormai ovunque, trasfor-
                                                mando profondamente il nostro modo di vivere e lavorare:
                                                migliora l’efficienza, offre nuove soluzioni ai problemi comples-
                                                si e amplia le possibilità di innovazione. Tuttavia, l’IA presenta
                                                anche rischi significativi. La sua vulnerabilità agli attacchi,
                                                come la manipolazione di dati o la compromissione di siste-
                                                mi critici, può avere conseguenze gravi. Un attacco a un’auto
                                                a guida autonoma, ad esempio, potrebbe compromettere la
                                                sicurezza stradale, mentre l’uso improprio di modelli IA può
            Rischi e Sicurezza                                           favorire atteggiamenti non etici o

                                                                         causare danni economici e fisici a
                                                                         cose e persone.
             dell’Intelligenza                                           I Large Language Models (LLMs)
                                                                         come ChatGPT non sono eccezioni,
                                                                         e nella nostra ricerca, che abbiamo
                                 Artificiale:                            intitolato “Dr. Jekyll and Mr. Hyde:

                                                                         Two Faces of LLMs”, portata avanti
                Le Vulnerabilità                                         nel gruppo di ricerca SPRITZ Se-
                                                                         curity and Privacy Research Group,
                                                                         in collaborazione con Stjepan Picek
        dei Large Language                                               (TU Delft e Radboud Universiteit),

                                                                         Tom Janssen-Groesbeek (Rabdoub
                                                                         Universiteit), e Stefanos Koffas (TU
                                               Models                    Delft), abbiamo esplorato proprio

                                                                         questa dicotomia, introducendo un
                                                                         metodo per far disallineare i modelli
                                                                         dalle loro misure di sicurezza (mo-
                                                strato in figura).
                                                Mentre modelli come ChatGPT sono progettati per essere
                                                altruisti e rispettosi (la “faccia di Dr. Jekyll”), possono anche
                                                rispondere in modo dannoso quando manipolati, simili a Mr.
                                                Hyde. Possono essere manipolati sfruttando la loro capacità di
                                                adattarsi a personalità o contesti specifici. Ad esempio, è pos-
                                                sibile indurli a rispondere in modo dannoso, simulando perso-
                                                naggi “pericolosi” come un hacker o un killer, mettendo in luce
                                                la necessità di rafforzare le misure di sicurezza e di mitigare i
                                                rischi legati a un uso improprio di questi strumenti.
                                                Questo avviene perché, durante l’addestramento, un LLM
                                                assimila una vasta gamma di informazioni provenienti da testi
        di              di                      scritti da esseri umani, imparando non solo dati oggettivi, ma
        Mauro Conti     Matteo Gioele Collu
                                                anche pregiudizi, errori e comportamenti meno etici. Anche se i
        Rotary Padova   PhD Candidate Unipd     modelli sono progettati per seguire principi etici e rispondere in
                                                modo responsabile, il comportamento simulato di un modello
                                                può facilmente essere influenzato dal contesto o dalla “persona-
                                             62 62
   57   58   59   60   61   62   63   64   65   66   67