The ethical dimension of LLMs – Video Conference

The ethical dimension of LLMs – Video Conference

EthicalDimensionAI_640

In this video conference promoted by CERSTE, Professor Luca Mari delves into the topic of generative artificial intelligence (AI) and its ethical complexity. He explained how generative AI is not only programmed, but trained through large amounts of data (datasets) that influence its behavior in ways that are not always predictable. This form of AI is likened to a “child” learning from its teachers, the data, posing significant ethical dilemmas regarding the quality and reliability of such teachings. Neural networks, key components of generative AI, gain behavioral autonomy, making it difficult to fully predict or control their actions. Mari pointed out that while traditional software is entirely programmable, a generative AI system has its own learning capability that makes it complex to regulate. This raises questions about who should be responsible for the ethical training of these systems and how to prevent inappropriate uses, a critical issue given their potential impact on society and culture.

Watch the event in full below (conference held in Italian):

TESTO IN ITALIANO

In questa videoconferenza organizzata da CERSTE, il professor Luca Mari approfondisce il tema dell’intelligenza artificiale generativa (AI) e la sua complessità etica. Ha spiegato come l’AI generativa non sia solo programmata, ma addestrata attraverso grandi quantità di dati (dataset) che influenzano il suo comportamento in modo non sempre prevedibile. Questa forma di AI è paragonata a un “bambino” che apprende dai suoi insegnanti, i dati, ponendo dilemmi etici significativi riguardo alla qualità e all’affidabilità di tali insegnamenti. Le reti neurali, componenti fondamentali dell’AI generativa, acquisiscono autonomia comportamentale, rendendo difficile prevedere o controllare completamente le loro azioni. Mari ha sottolineato che, mentre un software tradizionale è interamente programmabile, un sistema AI generativo ha una propria capacità di apprendimento che lo rende complesso da regolare. Questo solleva questioni su chi debba essere responsabile della formazione etica di questi sistemi e come prevenire usi inappropriati, un aspetto critico dato il loro potenziale impatto su società e cultura.

Guardate l’evento per intero qui sotto (conferenza condotta in italiano):


Join our network

CERSTE – CENTRE EUROPÉEN DES RECHERCHES SOCIO-ÉCONOMIQUES, TECHNOLOGIQUES ET ENVIRONNEMENTALES

Leave a Reply