Πέμπτη 6 Νοεμβρίου 2025

intelligente artificiale

 Per trovare una risposta alle nostre domande ci affidiamo sempre di più all’intelligenza artificiale. La fonte primaria di notizie per il 7% della popolazione e il 15% dei giovani si trova negli assistenti virtuali, i vari ChatGPT e Gemini.

Ma quando in ballo c’è la corretta informazione, i contenuti generati dalle AI sono affidabili?
Secondo uno studio BBC ed EBU, i margini di errore sono elevati, anche se lo scenario sta gradualmente migliorando. La ricerca ha coinvolto 18 paesi e 22 media pubblici di tutto il mondo, incluso un team di giornalisti RAI, chiamati a valutare le risposte di ChatGPT, Gemini, Perplexity e Copilot su un elenco di domande generiche di attualità.


To find answers to our questions, we increasingly rely on artificial intelligence. The primary source of news for 7% of the population and 15% of young people is virtual assistants, such as ChatGPT and Gemini.
But when correct information is at stake, are the contents generated by AI reliable?
According to a BBC and EBU study, error margins are high, even though the scenario is gradually improving. The research involved 18 countries and 22 public media organizations worldwide, including a team of RAI journalists, who were asked to evaluate the responses of ChatGPT, Gemini, Perplexity, and Copilot to a list of general current events questions.

    Su circa 3.000 risposte analizzate, quasi la metà presenta almeno un problema giudicato significativo, in grado cioè di compromettere il significato della notizia. Altri elementi intaccano almeno l’81% delle risposte: problemi minori, ma sufficienti a distorcere un po’ i fatti.
    La principale criticità? L’utilizzo delle fonti: almeno in una risposta su tre ci sono affermazioni errate o non verificabili attribuite alle testate.
    

    Out of about 3,000 responses analyzed, almost half present at least one problem considered significant, that is, capable of compromising the meaning of the news. Other elements affect at least 81% of the responses: minor problems, but enough to somewhat distort the facts.
    The main issue? The use of sources: in at least one out of three responses, there are incorrect or unverifiable statements attributed to news outlets.

      Da qui l’appello degli autori agli sviluppatori AI affinché lavorino sulla riduzione degli errori; agli editori, perché aumentino il controllo sull’uso dei loro contenuti; a legislatori e aziende, perché collaborino a garantire qualità, responsabilità e trasparenza; e infine al pubblico, che pretenda una corretta formazione in tema di intelligenza artificiale e dei suoi limiti.

      From here comes the authors' appeal to AI developers to work on reducing errors; to editors, to increase control over the use of their content; to legislators and companies, to collaborate in ensuring quality, responsibility, and transparency; and finally to the public, to demand proper training on the topic of artificial intelligence and its limits.

      1. https://ppl-ai-file-upload.s3.amazonaws.com/web/direct-files/attachments/images/126198465/7b3660ef-d4a3-4af6-afe8-fb66a3eb1a1e/image.jpg?AWSAccessKeyId=ASIA2F3EMEYEWQHWHKFH&Signature=MbjP%2B5V0P%2FN2SIpVa%2F4OfLk94GI%3D&x-amz-security-token=IQoJb3JpZ2luX2VjEOT%2F%2F%2F%2F%2F%2F%2F%2F%2F%2FwEaCXVzLWVhc3QtMSJHMEUCIQC0YWT13PvBEx9kiurAGlZ7Cp9Q8Y6rLWm%2Bbdqs1Pl2fgIgTiFJR3lt2l12YVLFeiVESCFyCNtilpFW%2FkW%2BwYZq7GUq%2FAQIrP%2F%2F%2F%2F%2F%2F%2F%2F%2F%2FARABGgw2OTk3NTMzMDk3MDUiDNyQg%2B3eRwMB5WCNmyrQBEfXmy5b2tmlB8VG%2BQmOwZuMcWuBal%2BOqexGoqoj8UudXXdl%2B4DzDN5nsMKPrNG23rBN061tIjWPNPkxTJYoLf9FXISGwh%2B917xo9t9hcNeVaesYoKYjWmscVokavmDE3wJPlyEn6huZ45Bj5IWbaE77akp6R7eKSQa%2B9boXUl0gb2oubN6Gwi9zlzdf5MXw1dWF4kr1CgA4%2Fpy4VUHM%2FMxGw%2F86lnV5xzP%2Fvfc6sqCS45WCfGqoYvtWOxtXhqgekPYogE1Udsx1PjXpfysLtM3PHPUpw2s2cRwdNgheTVkRlv1PtdyO%2FDNrDcxslvnAlpVy%2FogzKg1l0ctK8dSZSaQtAQqaM5x3Kejn4PQdcqyOWhJ4EP6WbFHes7UwoYTclmf2vPLBMuuFLbezcc6B47Ych%2BmHI0JURutaShULgajJasX3%2FXCo5zvt2%2BtFvXkn6QltfVTVxDzSMkFb%2FO9f9me95U8faWEJAD6Yr0r2u9PP6PgbBhj0%2Fb2B0KaJNqRd95iLUQUrot3b%2BQRCrNLeQ8WPSMl4W5Xq1Eg%2F7uJgH33ihnS9mTEa4hF8ZJAYzFFxDxoP69fxfKc9VQVimvbVc%2FxyBMaMU0k1qa3pEKyo7jDUZSEFuUPUA3DlRVu%2BYdZqnYv94oNqM0He%2FbMyvPb1x7PRdmCp0VQgB6v%2FeJK6Iqg7%2BR0iaAooatiWiL%2ByVC1dfCkp5bEI3yATdJYciHujFm5Z37TROUxRYd%2BvCHKEzHlPGm8mndL3KW%2FlyVgpqaeH7erX7t66Ayjl1SYiSZudIacw%2BeKzyAY6mAHBzbLXuogXs5m0Riy4f6Ytfa2nT7MHApgl2wZ1nm%2F9wh8vXKvBiTmYR%2B%2Bmb2bThQVBA%2BtsW1o44LaXdxlgDaG6FqgOH5V9bC%2B47u75mid2XtkIjOGxGcubMe6adPjzmpU72uGsqXI3SZHAdNXRVLN6yyM%2BbjFv%2BC4I4vv9tRPO8nGF1aaO3t81VCIP8ODlYAogy%2BhbcYnvAA%3D%3D&Expires=1762457947
    1. Ecco tre domande di comprensione sui testi analizzati:

      1. Quali sono i principali rischi o problemi individuati nei contenuti generati dall’intelligenza artificiale secondo lo studio citato?

      2. Quale ruolo dovrebbero svolgere sviluppatori, editori, legislatori e pubblico per migliorare la qualità delle informazioni prodotte dalle AI?

      3. Su circa 3.000 risposte analizzate, quale criticità principale è stata riscontrata riguardo all’utilizzo delle fonti?

Δεν υπάρχουν σχόλια:

Δημοσίευση σχολίου