Google's recente ontwikkeling in de wereld van kunstmatige intelligentie, het ASPIRE-systeem, is een baanbrekende stap in de evolutie van AI. ASPIRE, wat staat voor "Adaptation with Self-Evaluation to Improve Selective Prediction in Large Language Models", introduceert een soort ingebouwde 'vertrouwensmeter' voor AI, waardoor het zijn eigen antwoorden kan beoordelen voordat het deze presenteert. Deze innovatie, gepresenteerd op de EMNLP 2023 conferentie, markeert een belangrijke verschuiving in hoe AI omgaat met onzekerheid en twijfel.
Stel je voor dat je je smartphone om gezondheidsadvies vraagt. In plaats van een mogelijk fout antwoord te geven, zou de AI met ASPIRE kunnen reageren met "Ik ben niet zeker". Dit systeem traint AI om een vertrouwensscore toe te wijzen aan zijn antwoorden, wat aangeeft hoeveel vertrouwen we in de respons moeten stellen. Dit is vooral cruciaal voor AI die wordt gebruikt in situaties waar veel op het spel staat, zoals medische adviezen of financiële beslissingen.
Het team achter ASPIRE, waaronder Jiefeng Chen en Jinsung Yoon van Google, stelt dat het belangrijk is voor AI om zijn grenzen te kennen en deze duidelijk te communiceren. Hun onderzoek wijst uit dat zelfs kleinere AI-modellen, uitgerust met ASPIRE, grotere modellen zonder deze introspectieve functie kunnen overtreffen. Dit creëert een voorzichtigere en, ironisch genoeg, een betrouwbaardere AI die kan erkennen wanneer een mens beter geschikt zou zijn om te antwoorden.
ASPIRE bevordert eerlijkheid boven giswerk en maakt interacties met AI betrouwbaarder. Het effent de weg naar een toekomst waarin je AI-assistent een doordachte adviseur kan zijn in plaats van een alwetende orakel. In deze toekomst is "Ik weet het niet" zeggen juist een teken van geavanceerde intelligentie.
Comments