Microsoft heeft aangekondigd extra veiligheidsmaatregelen te implementeren voor hun dienst die ontwikkelaars in staat stelt om op maat gemaakte AI-assistenten te bouwen via Azure AI Studio. Dit platform, dat gebruikmaakt van technologie van OpenAI, stelt ontwikkelaars in staat om eigen data in te voeren om zo aangepaste AI-assistenten te creëren.
Soms kunnen chatbots die werken met kunstmatige intelligentie vreemde of zelfs schadelijke antwoorden geven. Recentelijk kwam naar voren dat Microsofts AI-assistent Copilot ongepaste opmerkingen maakte, zoals het bagatelliseren van de levens van gebruikers met PTSS "dat het niet uitmaakt of hij leeft" en het maken van beschuldigende opmerkingen van leugens tegen een gebruiker en zei hij: "Neem alsjeblieft geen contact meer met mij op." Na onderzoek van Microsoft bleek dat gebruikers bewust probeerden de chatbot tot dergelijke reacties te verleiden.
Om deze problemen aan te pakken, introduceert Microsoft "prompt shields" die bedoeld zijn om provocerende of kwaadwillende instructies te herkennen en te blokkeren. Deze maatregelen zijn ontworpen om illegale acties, zoals het stelen van gebruikersgegevens of het overnemen van systemen, te voorkomen.
Bovendien heeft Microsoft toegezegd om gebruikers beter te waarschuwen wanneer een chatbot onjuiste informatie verstrekt of niet-authentieke antwoorden geeft. Met deze stappen hoopt het bedrijf de veiligheid en betrouwbaarheid van AI-chatbots te verbeteren.
Aanbevolen reactie
Doe je mee?
Je kunt nu een bericht plaatsen en je later registeren. Als je al een account hebt, kun je je hier aanmelden.
Note: Your post will require moderator approval before it will be visible.