Mistral AI lanceert nieuwe moderatieservice
Mistral AI introduceert een nieuwe moderatieservice waarmee gebruikers ongewenst tekstinhoud kunnen detecteren op basis van verschillende beleidsdimensies.
Mistral AI meldt: "Veiligheid speelt een cruciale rol bij het nuttig maken van AI. Bij Mistral AI geloven we dat systeemniveau-beveiligingen essentieel zijn om downstream-implementaties te beschermen. Daarom introduceren we een nieuwe contentmoderatie-API. Het is dezelfde API die de moderatieservice in Le Chat aandrijft. We lanceren het om onze gebruikers in staat te stellen dit hulpmiddel te gebruiken en aan te passen aan hun specifieke toepassingen en veiligheidsnormen."
Het AI bedrijf meldt verder: "In de afgelopen maanden hebben we een groeiende belangstelling gezien in de industrie en onderzoeksgemeenschap voor nieuwe op LLM gebaseerde moderatiesystemen, die kunnen helpen om moderatie schaalbaarder en robuuster te maken voor verschillende toepassingen.
Ons model is een LLM-classifier die is getraind om tekstinvoer te classificeren in 9 categorieën die hieronder worden gedefinieerd. We lanceren twee eindpunten: één voor ruwe tekst en één voor conversationele inhoud. Ongewenste inhoud is zeer specifiek voor een bepaalde context, daarom hebben we ons model getraind om het laatste bericht van een gesprek binnen een conversationele context te classificeren. Raadpleeg onze technische documentatie voor meer informatie. Het model is native meertalig en in het bijzonder getraind op Arabisch, Chinees, Engels, Frans, Duits, Italiaans, Japans, Koreaans, Portugees, Russisch en Spaans."