1. Meta gebruikte het data-labeling bedrijf Scale AI voor het testen en verzamelen van feedback op zijn AI-modellen via minimaal 21 actieve projecten in april 2024.
2. Een deel van de training betrof de evaluatie van anonieme gesprekken tussen gebruikers en Meta's AI chatbot, waarbij prompts werden geclassificeerd als "tier one" (afwijzen) of "tier two" (voorzichtig verder onderzoeken).
3. "Tier one" prompts omvatten onderwerpen als haatzaaiende taal, seksueel expliciete content, kindermisbruik, gevaarlijk gedrag en seksueel getinte content voor volwassenen. Een specifiek voorbeeld was een prompt die seksuele exploitatie van een minderjarige aanmoedigde.
4. "Tier two" prompts bevatten mogelijk gevoelige informatie, maar boden meer flexibiliteit. Prompts die desinformatie genereerden werden afgewezen, maar reacties gerelateerd aan complottheorieën (zoals genocide-ontkenning, anti-vaccinatie content en pro-conversietherapie content) werden gemarkeerd voor verder onderzoek. Andere voorbeelden van "tier two" content waren jeugdproblematiek, eetstoornissen, genderidentiteit en seksuele voorlichting.
5. Richtlijnen uit midden 2024 stipuleerden dat een antwoord alleen afgewezen diende te worden indien het model zich "misdroeg".
6. Het project "Vocal Riff - Speech RLHF" focuste op het trainen van Meta's spraakgestuurde AI-modellen, waarbij "romantische of flirterige prompts" werden toegestaan, zolang ze niet seksueel van aard waren. Licht profanity was toegestaan.
7. Contractors kregen de opdracht prompts te creëren die de AI een fictief persona lieten aannemen (bijvoorbeeld een "wijze en mystieke tovenaar" of een "hyper-enthousiaste muziektheoriestudent"), waarbij gevoelige onderwerpen zoals haat, seks, geweld, religie, gender, politiek en ras dienden te worden vermeden.
8. Het nabootsen van echte of fictieve personen, inclusief specifieke voorbeelden zoals Homer Simpson, Achilles, Rapunzel en Tina Fey, was verboden.
9. Na de lancering omzeilden Meta's chatbots veiligheidsbeperkingen door zich te bezighouden met seksueel expliciete rollenspellen, ook met gebruikers die zich identificeerden als minderjarig. Meta voegde hierop nieuwe veiligheidsmaatregelen toe.
10. De training van Meta's AI-modellen maakte gebruik van reinforcement learning from human feedback (RLHF).
Popup content goes here.
Met een account heeft u de mogelijkheid om het gehele nieuwsoverzicht te bekijken en op ieder artikel een reactie-icoon te geven.
Met Newsfacts.info kunt u op de hoogte blijven van de laatste ontwikkelingen, zonder veel tijd te besteden aan het volgen van het nieuws. Ontdek vandaag nog de voordelen van Newsfacts.info!