AI-startup Anthropic onthult morele principes achter chatbot Claude
Door Alphabet gesteunde AI-startup Anthropic heeft de reeks waarderichtlijnen bekendgemaakt die zijn gebruikt om haar te trainen ChatGPT rivaal, Claudein de nasleep van zorgen over onjuiste en bevooroordeelde informatie die wordt gegeven aan gebruikers van generatieve AI programma’s.
Anthropic, opgericht door voormalige senior leden van het door Microsoft gesteunde OpenAI in 2021, nam de beslissing om zijn Claude te trainen in constitutionele AI, een systeem dat een “reeks principes gebruikt om oordelen te vellen over output”, wat Claude helpt om “giftige of discriminerende outputs” zoals het helpen van een mens om deel te nemen aan illegale of onethische activiteiten, volgens a bloggen Anthropic plaatste deze week. Anthropic zegt dat dit het in staat heeft gesteld om in grote lijnen een AI-systeem te creëren dat “behulpzaam, eerlijk en onschadelijk” is.
Om dit artikel volledig te lezen, klik hier
»Lees hier het oorspronkelijke bericht.