Foto: Alan Light / Wikimedia Commons. Overstrykningen er Documents.

En forsker ved Carnegie Mellon-universitetet har påvist at kunstig intelligens som skal gjenkjenne rasisme, reagerer på diskusjoner om sjakk. Undersøkelsen ble utløst av at YouTube stengte en sjakk-kanal, sannsynligvis fordi diskusjoner om svart og hvit ble tolket som rasisme

Det var YouTube-kanalen til den kroatiske sjakkspilleren og -ambassadøren Antonio Radic, som har mer enn en million følgere, som plutselig ble stengt i fjor sommer, skriver The Independent.

Radic’s channel was reinstated after 24 hours, leading the chess champion to speculate that he had been temporarily banned for a referral to “black against white”, even though he was talking about chess at the time.

Modereringssystemet på YouTube benytter både menneskelige ressurser og automatikk. Ashiqur KhudaBukhsh, som er forsker ved Carnegie Mellon, har undersøkt hvordan sjakkdiskusjoner kan få rasismealarmen til å gå hos den kunstige intelligensen som automatikken benytter.

Sjakkdiskusjon forvirrer automatikken nesten hele tiden, viser en studie som KhudaBukhsh nylig presenterte ved en konferanse om kunstig intelligens:

KhudaBukhsh tested this theory by using a state-of-the-art speech classifier to screen more than 680,000 comments gathered from five popular chess-focussed YouTube channels.

After manually reviewing a selection of 1,000 comments that had been classed by the AI as hate speech, they found that 82 per cent of them had been misclassified due to the use of words like “black”, “white”, “attack” and “threat” – all of which commonly used in chess parlance.

 

 

Kjøp Alexander Graus «Hypermoral» fra Document Forlag her!

Vi i Document ønsker å legge til rette for en interessant og høvisk debatt om sakene våre. Vennligst les våre retningslinjer for debattskikk før du deltar.