L'Intelligenza Artificiale, o AI (dall'inglese Artificial Intelligence), è un ramo dell'informatica che studia come creare macchine e programmi in grado di esibire comportamenti intelligenti, cioè di svolgere compiti che normalmente richiedono l'intelligenza umana, come il ragionamento, l', il riconoscimento di immagini e suoni, la comprensione del linguaggio e la risoluzione di problemi. L'idea di base dell'AI è di sviluppare sistemi che non siano semplicemente programmati per svolgere un compito specifico, ma che siano capaci di imparare dall', adattarsi a situazioni nuove e prendere decisioni in modo autonomo, simulando i processi cognitivi degli esseri umani. Le origini dell'AI risalgono agli anni '50 del Novecento, ma è soprattutto negli ultimi decenni, grazie ai progressi tecnologici nel campo dell'informatica e all'esplosione dei dati digitali (i cosiddetti "big data"), che questa disciplina ha conosciuto un enorme sviluppo, portando a risultati sorprendenti in campi come il riconoscimento vocale, la visione artificiale, la guida autonoma e la traduzione automatica. Oggi l'AI è una realtà sempre più presente nella nostra vita quotidiana, dalle app dei nostri smartphone ai sistemi di raccomandazione algoritmici di piattaforme come Netflix o Amazon, dai chatbot per il servizio clienti agli assistenti virtuali. Le applicazioni dell'AI, tuttavia, vanno ben oltre, toccando settori cruciali come la sanità (per esempio con sistemi di diagnosi delle malattie), la finanza (per l'individuazione di frodi o la gestione di investimenti), l'industria (con l'automazione intelligente dei processi produttivi), la pubblica amministrazione (per l'erogazione di servizi più efficienti ai cittadini) e molti altri. Se da un lato sono numerosi gli ambiti in cui tale paradigma tecnologico ha portato benefici e innovazione, dall’altro lato la tematica solleva articolate sfide etiche e sociali che riguardano: , manipolazione, BIAS e pregiudizi, sorveglianza digitale, dati personali, tecniche predittive-computazionali, governance dei sistemi. La rapida evoluzione, unita alla pervasività che caratterizza l’AI, richiede un approccio multidimensionale in grado di coinvolgere istituzioni, aziende, policy maker e società per garantirne uno sviluppo responsabile e inclusivo. Sviluppo storico, significato e definizione di Intelligenza Artificiale L' ha una storia che risale al 1956, quando un gruppo di scienziati si riunì al Dartmouth College per discutere di come creare macchine in grado di pensare come gli esseri umani. Fu in quell'occasione che John McCarthy coniò il termine "Intelligenza Artificiale", definendola come «[…] la scienza e l'ingegneria della creazione di macchine intelligenti» (McCarthy et al., 1956). Fin dall'inizio, ci sono state diverse idee su cosa significhi rendere le macchine "intelligenti". Alcuni studiosi aspiravano a trasformare i computer stessi in agenti intelligenti, altri ad imitare il pensiero umano, altri ancora che si comportassero come esseri umani (Trappl, 1983). Col passare del tempo e con i progressi tecnologici, in particolare nell'apprendimento automatico (machine learning) e nell'apprendimento profondo (deep learning), si è affermata l'idea che l'AI non debba per forza imitare l'intelligenza umana, ma possa essere un tipo di intelligenza diversa, in grado di agire in modo intelligente anche con modalità differenti da quelle del cervello umano (Poole e Mackworth, 2010). In epoca recente l'AI sta vivendo un periodo di grande sviluppo, grazie alla grande quantità di dati disponibili (big data), alla potenza di calcolo dei computer e alle tecnologie cloud. Un momento simbolo è stata la vittoria nel 2016 di AlphaGo, un software di AI, su un campione mondiale del gioco del Go, dimostrando le capacità dei nuovi algoritmi di apprendere autonomamente e prendere decisioni. L'Intelligenza Artificiale può essere oggi definita come «[…] la capacità di un sistema di interpretare correttamente i dati esterni, apprendere da essi e utilizzarli per raggiungere obiettivi e svolgere compiti specifici attraverso un adattamento flessibile» (Kaplan and Haenlein, 2019). Questa definizione sottolinea aspetti chiave come l'apprendimento autonomo, l'adattamento e la capacità di svolgere compiti complessi. Dal punto di vista tecnico (prospettiva computazionale), l'attenzione è posta sugli algoritmi e sulle prestazioni dei sistemi di AI, cercando di renderli sempre più efficienti e affidabili. Dal punto di vista sociale (prospettiva sociologica), invece, l'attenzione è rivolta all'impatto che l'AI ha sulla società: impatto sul , etica e discriminazione, e sorveglianza, responsabilità e governance, interazioni uomo-macchina. A differenza dell’approccio computazionale, è una prospettiva che adotta una lente più ampia e che considera l'AI come un fenomeno sociotecnico integrato in un contesto culturale, politico ed economico specifico. È importante considerare entrambi questi aspetti, tecnico e sociale, per sviluppare un'Intelligenza Artificiale che sia non solo efficace, ma anche giusta e rispettosa dei valori umani. Solo integrando le due prospettive potremo affrontare in modo responsabile le sfide poste da questa tecnologia così potente e promettente. Rapporto fra AI e Intelligenza umana Nel corso degli anni, il modo in cui l'AI è stata concepita in relazione all'intelligenza umana è cambiato notevolmente. Inizialmente, l'AI era vista semplicemente come una "macchina intelligente" capace di replicare alcune capacità cognitive umane, come l'apprendimento, il linguaggio, la percezione sensoriale e la risoluzione di problemi complessi. Molti studi si sono concentrati sulla possibilità per l'AI di simulare l'intelligenza umana, considerando quest'ultima come modello di riferimento. Tuttavia, sta emergendo una visione più autonoma dell'AI, che la considera non solo come imitazione della mente umana, ma come una nuova forma di intelligenza potenzialmente indipendente. Secondo questa prospettiva, l'AI può non solo emulare aspetti umani, ma anche monitorare processi e agire in modo autonomo nell'ambiente (Russell and Norvig, 2003). L'AI può essere classificata in base al tipo di intelligenza che esibisce o al suo stadio evolutivo. In particolare, si distingue fra AI generale (Artificial General Intelligence), con capacità equivalenti agli umani sul piano cognitivo, emotivo e sociale, e AI ristretta (Artificial Narrow Intelligence), specializzata in competenze specifiche (Hanlein & Kaplan, 2019). Recentemente, si è affermata una visione più pragmatica dell'AI, che la considera non come replicazione della mente umana, ma come nuova forma di razionalità basata sui dati. Secondo questa concezione, il potenziale dell'AI sta nella sua capacità di elaborare grandi moli di informazioni per prendere decisioni ottimali in contesti organizzativi, piuttosto che nel replicare i processi cognitivi umani (Borges et al., 2021). Nonostante i progressi fatti, rimangono ancora molte sfide aperte per comprendere a fondo l'impatto dell'AI e garantirne uno ed equo. La complessità del tema riflette sia le difficoltà nel comprendere appieno la natura dell'AI, sia le sue potenzialità rivoluzionarie non solo nell'emulare, ma anche nell'estendere e supportare l'intelligenza umana verso frontiere ancora inesplorate. Per uno sviluppo responsabile L' sta rapidamente trasformando la nostra società, portando con sé sia grandi opportunità che importanti sfide etiche. Lo sviluppo responsabile dell'AI richiede una riflessione attenta non solo sugli aspetti tecnologici, ma anche sulle implicazioni sociali delle sue applicazioni. Episodi di discriminazione algoritmica, violazione della e condizionamento delle scelte individuali hanno già evidenziato la necessità di integrare principi morali nella progettazione dei sistemi AI, per garantirne la correttezza ed evitare impatti negativi sulla società (Floridi & Cowls, 2019). Gli algoritmi di apprendimento automatico, ad esempio, possono apprendere e amplificare pregiudizi presenti nei dati di addestramento, portando a decisioni discriminatorie in settori sensibili. L'impatto dell'AI sul è un altro aspetto critico. Stime indicano che nei prossimi vent'anni il 47% dei posti di lavoro attuali è ad alto rischio di automazione (Frey & Osborne, 2017), ponendo sfide importanti in termini di riqualificazione dei lavoratori e gestione delle diseguaglianze economiche. Per affrontare queste e molte altre problematiche, nel marzo 2024, l'Unione Europea ha approvato il regolamento AI ACT, istituendo un quadro giuridico uniforme per lo sviluppo di un’AI antropocentrica e affidabile, in grado di garantire un elevato livello di protezione della salute, della sicurezza e dei diritti sanciti dalla Carta dei diritti fondamentali dell’Unione Europea, compresi la democrazia, lo Stato di Diritto e la protezione dell’ambiente e favorirne uno sviluppo responsabile. Per garantire uno sviluppo dell'AI che sia realmente sostenibile ed equo, è essenziale adottare un approccio responsabile e antropocentrico, in cui le esigenze e i diritti dell'essere umano siano sempre posti al centro del processo di progettazione e implementazione dei sistemi di AI. Solo in questo modo sarà possibile sfruttare appieno le opportunità offerte da questa tecnologia rivoluzionaria, limitandone al contempo i rischi e gli effetti negativi sul tessuto sociale. Bibliografia Adolfi F. - Bowers J. - Poeppel D., Successes and critical failures of neural networks in capturing human-like speech recognition, Neural Networks, Volume 162, 2023, pp.199-211. Ashok M. - Madan R. - Joha A., - Sivarajah U., Ethical framework for Artificial Intelligence and Digital technologies, International Journal of Information Management, 62, 102433, 2022. Borges A.F.S. - Laurindo F.J.B. - Spínola M.M. - Gonçalves R.F. - Mattos - C.A., The strategic use of artificial intelligence in the digital era: Systematic literature review and future research directions, International Journal of Information Management, 57, Article 102225, 2021. Bostrom N., Superintelligenza, Bollati Boringhieri Editore, 2018. Chiu Y. - Zhu Y. - Corbett J., In the hearts and minds of employees: A model of pre-adoptive appraisal toward artificial intelligence in organizations, International Journal of Information Management, 60, 102379, 2021. Poole D. - A. Mackworth, Artificial Intelligence. Fundations of computational agents, Cambridge, 2010. Floridi L. – J. Cowls, A unified framework of five principles for AI in society, Harvard Data Science Review, 2019. Frey C.B. – M.A. Osborne, The future of employment: How susceptible are jobs to computerisation? Technological Forecasting & Social Change/Technological Forecasting and Social Change, 114, 2017, pp 254-280. Haenlein M. – A. Kaplan, A Brief History of artificial intelligence: on the past, present, and future of artificial intelligence, California Management Review, 61(4), 2019, pp 5–14. Haykin S., Neural networks: A comprehensive foundation, Prentice-Hall, 1998. Jordan M.I. – T.M. Mitchell, Machine learning: Trends, perspectives, and prospects. Science, 349(6245), 2015, pp 255-260. Latinović Z. – S. Chatterjee, Achieving the promise of AI and ML in delivering economic and relational customer value in B2B, Journal of Business Research, 144, 2022, pp 966–974. Russell S. – P. Norvig, Artificial intelligence. A modern approach, Pearson Education, 2003. Silver D. - Huang A. - Maddison C. et al., Mastering the game of Go with deep neural networks and tree search, Nature, 529(7587), pp. 484-489, 2016. Trappl R., Cybernetics: Theory and applications, AbeBooks, 1983.

Footer: in quest'area va inserito il testo con le specifiche di gestione del glossario