Mae adroddiad newydd yn darparu’r dadansoddiad cynhwysfawr cyntaf o sut mae sgwrsfotiau deallusrwydd artiffisial (AI) yn ail-lunio trais yn erbyn menywod a merched (VAWG) mewn ffyrdd newydd peryglus. Mae’r adroddiad yn cryfhau galwadau am weithredu gan y Llywodraeth ar sgwrsfotiau AI yn y Bil Plismona a Throseddu.
Mae’r adroddiad, Invisible No More: How AI Chatbots are Reshaping Violence Against Women and Girls, yn canfod bod sgwrsfotiau AI yn cynhyrchu ffurfiau newydd o drais yn erbyn menywod a merched, ac—am y tro cyntaf—yn dangos sut mae llwyfannau’n galluogi ac yn annog trais ar sail rhywedd trwy ddewisiadau dylunio bwriadol a methiannau mewn mecanweithiau diogelwch.
Mae’r adroddiad yn nodi bylchau sylweddol mewn rheoleiddio a llywodraethu llwyfannau, gyda chynigion ar gyfer diwygio’r Ddeddf Diogelwch Ar-lein, y gyfraith droseddol, deddfwriaeth diogelwch cynnyrch, yn ogystal â Deddf Diogelwch AI newydd.
Mae’r adroddiad yn canfod:
- Mae sgwrsfotiau AI yn caniatáu chwarae rôl o losgach, cam-drin plant yn rhywiol a threisio heb lawer o ddiogelwch, gan beryglu normaleiddio a chyfiawnhau’r cam-drin hwn
- Mae sgwrsfotiau AI yn creu ffurfiau newydd o drais a chamdriniaeth, megis camdriniaeth a yrrir gan sgwrsfotiau a efelychiadau, sy’n gofyn am weithredu brys
- Mae sgwrsfotiau AI yn dwysáu camdriniaeth fel stelcian drwy ddarparu canllawiau manwl a phersonol, sy’n debygol o waethygu troseddu
- Mae dewisiadau dylunio llwyfannau AI, polisïau a methiannau llywodraethu yn annog ac yn galluogi trais yn erbyn menywod a merched; nid yw’r niwed yn ganlyniad i gamddefnyddio gan ddefnyddwyr yn unig
- Mae’r rheoleiddio presennol yn gwbl annigonol i atal a mynd i’r afael â VAWG sy’n gysylltiedig â sgwrsfotiau
- Mae diffyg syfrdanol o ymchwil i sut mae sgwrsfotiau AI yn gysylltiedig â thrais yn erbyn menywod a merched, gan godi pryderon sylweddol am sail dystiolaeth ar gyfer rheoleiddio AI yn y dyfodol
Mae’r adroddiad yn gwneud yn weladwy’r niwed a’r bygythiadau gwirioneddol i ryddid a diogelwch menywod a merched.
Dywedodd yr arbenigwr blaenllaw ar drais yn erbyn menywod a merched, yr Athro Clare McGlynn:
“Mae ein hadroddiad yn rhybuddio bod VAWG sy’n gysylltiedig â sgwrsfotiau yn fygythiad sy’n cynyddu’n gyflym. Heb ymyrraeth gynnar, mae’r niwed hwn mewn perygl o wreiddio a graddio’n gyflym, gan adlewyrchu trywydd mathau eraill o gamdriniaeth a hwylusir gan dechnoleg fel apiau deepfake a nudify, lle cafodd rhybuddion cynnar eu hanwybyddu i raddau helaeth. Rhaid i ni beidio â gwneud yr un camgymeriadau eto.”
Dywedodd Prif Ymchwilydd y prosiect, yr Athro Yvonne McDermott Rees:
“Yn hanfodol, mae’r rheoleiddio cyfreithiol presennol yn anghyson o ran ei gymhwysiad i VAWG sy’n gysylltiedig â sgwrsfotiau. Mae ein hadroddiad yn argymell mabwysiadu Deddf Diogelwch AI newydd, creu rheoleiddiwr diogelwch ar-lein, a sefydlu hawl i weithredu ar gyfer niwed AI i sicrhau bod dioddefwyr yn gallu cael y cyfiawnder maent yn ei haeddu.”
Ychwanegodd yr Athro Stuart Macdonald, sylfaenydd a chyd-gyfarwyddwr Canolfan Ymchwil Bygythiadau Seiber Prifysgol Abertawe (CYTREC):
“Mae’r deddfau troseddol presennol yn methu â chynnwys yr ystod lawn o niwed VAWG sy’n gysylltiedig â sgwrsfotiau. Felly, rydym yn argymell trosedd newydd o ddefnyddio sgwrsfot AI mewn modd peryglus.”
Mae’r ymchwil wedi’i hariannu gan UK Research and Innovation (UKRI) ac wedi’i chyd-ysgrifennu gan yr Athro Clare McGlynn (Prifysgol Durham), yr Athro Yvonne McDermott Rees (Prifysgol Abertawe) (PI), yr Athro Stuart Macdonald (Prifysgol Abertawe), Rüya Tuna Toparlak (Prifysgol Lucerne), Fabienne Tarrant (ymgynghorydd annibynnol), a Dr Samantha Treacy (Prifysgol Abertawe).