#19 - 5 bias cognitivi che influiscono sul risultato di un algoritmo di AI
Download and listen anywhere
Download your favorite episodes and enjoy them, wherever you are! Sign up or log in now to access offline listening.
Description
►► Il nostro primo libro: https://bluetensor.ai/it/libro-amazon/ *** Ti ricordi la puntata #16 del podcast? In quella puntata abbiamo parlato di un articolo di VICE in cui si dichiarava in modo...
show more***
Ti ricordi la puntata #16 del podcast?
In quella puntata abbiamo parlato di un articolo di VICE in cui si dichiarava in modo provocatorio che gli algoritmi di Machine Learning sono razzisti.
Il tutto è partito da un algoritmo di image processing che, nel tentativo di ricostruire il viso pixelato di Barack Obama, ha dato come risultato il viso di un uomo caucasico.
Ergo, gli algoritmi di ML sono razzisti.
Abbiamo già spiegato perché questa conclusione è sbagliata, ma non potevamo sapere cosa sarebbe successo...
Infatti, quell'articolo ha suscitato un certo interesse, soprattutto in un periodo in cui le rivolte di Black Lives Matter fanno notizia.
E sulla stessa scia, da un paio di settimane i giornalisti e gli esperti di AI hanno ripreso il discorso dei bias chiedendosi:
"Quali sono i bias che influiscono sul risultato di un algoritmo di Machine Learning?"
Ebbene, poco tempo fa è uscito un articolo che ne evidenzia ben 23, e siamo partiti analizzando i primi 5.
Il nostro obiettivo con questa nuova puntata del podcast è proprio di sottolineare l'origine dei bias e capire come ridurre il loro impatto.
Ne abbiamo parlato nella puntata #19 che puoi trovare su:
►GOOGLE PODCAST: https://bit.ly/32TDZei
►SPOTIFY: https://spoti.fi/2D3ttGF
►APPLE PODCAST: https://apple.co/2CBsSfz
Buon ascolto!
***
P.S. Vuoi scoprire come implementare un sistema di Intelligenza Artificiale alla tua azienda?
►► Telefona al numero verde 800-270-021.
►► Scrivi un'email a info@bluetensor.ai .
►► Visita il sito www.bluetensor.ai
A presto!
Information
Author | Bluetensor |
Organization | Bluetensor |
Website | - |
Tags |
Copyright 2024 - Spreaker Inc. an iHeartMedia Company
Comments