Ett nytt verktyg ska få oss människor att bättre förstå och utveckla modeller för artificiell intelligens genom att söka och lyfta fram representativa scenarier.
-Vi vill göra mänsklighet och AI-interaktion säkrare genom att ge människor mer insikt i deras AI-medarbetare, säger forskarna bakom.
Att förklara, tolka och förstå det mänskliga sinnet är en utmaning, likaså gäller det beteendet hos maskiner. Men för att uppnå bättre mänsklig-AI-interaktion har ett team av forskare från Massachusetts Institute of Technology i USA skapat ett nytt verktyg vid namn Bayes-TrEx. Verktyget gör det möjligt för utvecklare och användare att få transparens i sin AI-modell genom att hitta konkreta exempel som leder till ett visst beteende. Metoden använder sig av "Bayesian posterior inference", ett matematiskt ramverk för att lösa osäkerheter.