Beth yw’r Problemau Hawlfraint a Chyfrinachedd sy’n Codi o’r Defnydd o Fodelau Iaith Mawr Cyhoeddus a Phreifat?
Dyma’r bedwaredd erthygl yn ein cyfres ar ddeallusrwydd artiffisial a’r Sector Cyhoeddus.
Mae Modelau Iaith Mawr fel ChatGPT, Gemini a Claude wedi symud yn gyflym o ymchwil arloesol i ddefnydd bob dydd, gan gynnwys yn sector cyhoeddus y DU. Mae’r offer pwerus hyn, sy’n gallu cynhyrchu testun sydd fel testun dynol a chynorthwyo gydag amrywiaeth o dasgau gweinyddol, ymchwil a pholisi, yn cynnig gwerth gwirioneddol i gyrff cyhoeddus sydd dan bwysau i ddarparu mwy gyda llai o adnoddau.
Ond tra bod y buddion yn gyffrous, mae eu defnydd yn codi cwestiynau cyfreithiol pwysig, yn enwedig ynghylch hawlfraint a chyfrinachedd. Ar gyfer gweithwyr a sefydliadau’r sector cyhoeddus yng Nghymru a Lloegr, mae deall y peryglon hyn yn hanfodol er mwyn defnyddio modelau iaith mawr mewn modd cyfrifol a chyfreithlon.
Yn yr erthygl hon, rydym yn egluro’r problemau hawlfraint a chyfrinachedd allweddol sy’n gysylltiedig â defnyddio’r modelau hyn, boed yn gyhoeddus (modelau agored, ar y we) neu’n breifat (systemau deallusrwydd artiffisial wedi’u rheoli neu eu haddasu’n fewnol), a beth y dylai cyrff sector cyhoeddus ei wneud i’w rheoli.
Deall y gwahaniaeth: Modelau Iaith Mawr Cyhoeddus neu Breifat
O’r cychwyn cyntaf, mae’n ddefnyddiol gwahaniaethu rhwng y ddau fath mwyaf cyffredin o fodelau:
- Modelau Cyhoeddus yw’r modelau y gellir cael mynediad atynt drwy’r rhyngrwyd, sy’n cael eu rhedeg fel arfer gan drydydd partïon (e.e. ChatGPT gan OpenAI, Bard gan Google). Mae defnyddwyr yn cyflwyno awgrymiadau drwy ryngwynebau ar y we neu ryngwynebau rhaglennu cymwysiadau, a chynhyrchir yr ymatebion o fodelau a hyfforddwyd ar setiau data eang iawn ar y rhyngrwyd.
- Mae Modelau Preifat yn fodelau a wnaethpwyd yn arbennig neu a gynhelir yn lleol, sydd fel arfer wedi’u hyfforddi ar ddata mewnol sefydliad. Gellir rheoli’r rhain yn fewnol neu drwy ddarparwr cwmwl diogel, sy’n cynnig mwy o reolaeth dros ymdrin â’r data a’u hallbynnau.
Mae heriau gwahanol ynghlwm wrth bob un pan ddaw i hawlfraint a chyfrinachedd.
Materion Hawlfraint
-
Hawlfraint mewn Data Hyfforddiant
Mae nifer o fodelau cyhoeddus wedi’u hyfforddi ar setiau data enfawr a gesglir o’r rhyngrwyd—erthyglau newyddion, blogiau, llyfrau, fforymau, a mwy. Bydd llawer o’r cynnwys hwn yn ddeunydd â hawlfraint.
A yw’n gyfreithlon defnyddio’r deunydd hwn i hyfforddi model deallusrwydd artiffisial heb ganiatâd perchennog yr hawliau?
Yn y DU, mae gennym eithriad hawlfraint yn Adran 29A o Ddeddf Hawlfraint, Dyluniadau a Phatentau 1988, sy’n nodi bod hawl i gloddio testun a data ar gyfer ymchwil anfasnachol o dan amodau penodol. Fodd bynnag, nid yw defnydd masnachol, fel cloddio ar gyfer hyfforddi model iaith mawr (boed yn gyhoeddus neu’n breifat) at ddibenion cynhyrchu refeniw, wedi’i eithrio.
Mae’r mater hwn yn destun achos llys yn y DU ar hyn o bryd. Daeth Getty Images ag achos o dorri hawliau hawlfraint, nod masnach a chronfeydd data yn yr Uchel Lys yn erbyn Stability AI mewn perthynas â’i feddalwedd cynhyrchu darluniau deallusrwydd artiffisial. Er y gwnaed penderfyniadau rhagarweiniol eisoes, disgwylir i’r achos gael ei glywed yn ddiweddarach eleni. Mewn achos ar wahân, mae Mumsnet wedi dwyn achos yn erbyn OpenAI, gan honni trosedd ar sail debyg.
Am y tro, os ydych yn defnyddio model cyhoeddus, rydych yn dibynnu ar y ffaith bod darparwr y model wedi sicrhau mynediad cyfreithlon at y gwaith sy’n llunio’r data hyfforddiant. Os ydych yn defnyddio model preifat, yn enwedig un sydd wedi’i hyfforddi ar gynnwys trydydd parti, rhaid i chi sicrhau bod yr hawliau gennych i ddefnyddio’r cynnwys hwnnw i hyfforddi. Yn y naill achos a’r llall, byddwch eisiau i’r contract â’ch cyflenwr ymdrin â hyn yn benodol. Oherwydd y prosesau a ddefnyddiwyd ganddynt a’r peryglon clir sydd ynghlwm wrth hynny, mae’n bosibl y byddwch yn canfod y bydd cyflenwr model cyhoeddus yn amharod i roi sicrwydd cyfreithiol i chi ar y pwynt hwn.
-
Hawlfraint mewn Allbynnau Deallusrwydd Artiffisial
Mae dwy agwedd i hyn.
Yn gyntaf, os byddwch yn gofyn i fodel ddrafftio briff polisi neu lunio adroddiad, a oes perygl y bydd y briff neu’r adroddiad yn tresmasu ar waith a gynhwysir yn y model?
Er enghraifft, mae’n bosibl y bydd offeryn deallusrwydd artiffisial y gofynnir iddo lunio adroddiad ar aildrefnu swyddogaethau cyngor yn ymddangos yn debyg i adroddiad a baratowyd gan ymgynghorwyr allanol ar gyfer awdurdod gwahanol. Mae’n bosibl bod yr offeryn wedi llunio’r allbwn yn gwbl annibynnol ar sail mewnbwn y defnyddiwr. Ond gallai lefel y tebygrwydd olygu y gallai fod yn anodd perswadio barnwr am hyn.
Yn ail, a yw’n bosibl hyd yn oed cael hawlfraint ar waith a luniwyd gan system deallusrwydd artiffisial? Mae hwn yn faes i’w drafod oherwydd (dadleuir) nad yw’r trothwy ar gyfer gwreiddioldeb yn cael ei fodloni gan waith a lunir gan beiriant. Os mai dyna’r achos, bydd darpariaethau yn eich contract â’ch cyflenwr yn dod yn bwysicach. Lle nad oes hawlfraint ar waith, mae’n bosibl i’r cyflenwr honni (fel y mae nifer yn ei wneud yn eu telerau safonol) bod yr holl allbwn yn berchen iddynt a/neu yn destun darpariaethau cytundebol eraill ynghylch defnydd.
Ceir elfen ychwanegol yn y DU, sydd â deddfwriaeth sy’n ymwneud yn benodol â gwaith a luniwyd gan ddeallusrwydd artiffisial. Mae Adran 9(3) o’r Ddeddf Hawlfraint, Dyluniadau a Phatentau’n darparu, lle bo gwaith wedi’u lunio gan gyfrifiadur, mai’r awdur fydd yr unigolyn a wnaeth y trefniadau angenrheidiol ar gyfer creu’r gwaith. Ond hyd yn hyn, mae llysoedd yn y DU wedi canfod yn gyson bod awdur dynol ar gyfer pob darn o waith y mae’r broblem hon wedi codi yn ei gylch, sydd wedi arwain at nifer o sylwebwyr yn dadlau na fydd Adran 9(3) byth yn berthnasol.
Felly, mae hyn yn parhau’n broblem i’w hegluro a’i chadarnhau.
Materion Cyfrinachedd
Yr ail faes o berygl mawr yw ymdrin â gwybodaeth gyfrinachol neu sensitif, sy’n bryder difrifol penodol i sefydliadau sector cyhoeddus sy’n ymdrin â data sensitif, cofnodion achosion, neu drafodaethau mewnol.
-
Cyflwyno Data Sensitif i Fodelau Iaith Mawr Cyhoeddus
Wrth ddefnyddio model cyhoeddus, bydd unrhyw beth y byddwch yn ei gynnwys yn y system yn cael ei anfon at drydydd parti. Gan ddibynnu ar delerau defnydd y darparwr, gellir gwneud yr hyn a ganlyn i’ch data:
- Ei storio
- Ei adolygu gan fodau dynol ar gyfer rheoli ansawdd
- Ei ddefnyddio i wella’r model
- Gall fod yn destun gwaith prosesu mewn gwledydd y tu allan i’r DU – mae hyn yn peri problem yn amlwg os yw eich data’n cynnwys data personol
Mae hyn yn creu peryglon amlwg os ydych yn cynnwys gwybodaeth gyfrinachol, fel manylion defnyddiwr gwasanaeth, cyngor cyfreithiol, neu bolisi drafft ar gyfer cyngor. Unwaith y bydd wedi’i gynnwys, mae’n bosibl y byddwch yn colli rheolaeth dros y data yn gyfan gwbl. Mae perygl hefyd y gallai rhai awgrymiadau arwain yr offeryn deallusrwydd artiffisial i ddatgelu gwybodaeth gyfrinachol i drydydd partïon, gan osgoi’r rheolau a bennwyd gan y datblygwyr gwreiddiol, fel yn achos Chat GPT.
Mae nifer o ddarparwyr modelau wedi rhyddhau fersiynau “menter” gyda rheolau llymach (gweler, er enghraifft, ymateb Microsoft i’r mater hwn ‘FAQ: Protecting the Data of our Commercial and Public Sector Customers in the AI Era’ | Microsoft Community Hub), ond nid yw hyn yn cael gwared ar yr angen i gael rheolau llym ynghylch mewnbynnu gwybodaeth. Rhaid hyfforddi staff i beidio â chynnwys gwybodaeth gyfrinachol neu adnabyddadwy mewn offer modelau cyhoeddus oni bai bod cytundeb clir ar waith sy’n diogelu.
-
Defnyddio Gwybodaeth Gyfrinachol mewn Modelau Preifat
Gellir hyfforddi modelau preifat gan ddefnyddio setiau data mewnol, ond mae dal angen i chi asesu a oes gennych ganiatâd cyfreithlon i ddefnyddio’r setiau data hynny. Mae’r prif gwestiynau’n cynnwys:
- A oes sail gyfreithlon ar gyfer prosesu os defnyddir data personol?
- Sut mae’r data’n cael ei gadw’n ddiogel?
- A oes rheolau mynediad ar waith i atal y camddefnydd o ddata gan drydydd parti neu fynediad ato?
Heb lywodraethiant a goruchwyliaeth briodol, mae perygl o dorri’r rhwymedigaethau cyfrinachedd neu gamdrafod data personol, a gallai hyn o bosibl arwain at gwynion, niwed i enw da a/neu gamau gorfodi.
Rheoli Risgiau Hawlfraint a Chyfrinachedd: Camau Ymarferol i Gyrff Sector Cyhoeddus
Mae gan fodelau iaith mawr y potensial i wella cynhyrchiant a chyflymu ymatebion. Ond er mwyn osgoi problemau hawlfraint a chyfrinachedd, dylai sefydliadau sector cyhoeddus gymryd y camau a ganlyn:
-
Datblygu Polisi Clir ar y Defnydd o Ddeallusrwydd Artiffisial
Llunio polisïau mewnol sy’n egluro sut y gall staff ddefnyddio modelau, pa systemau deallusrwydd artiffisial sydd wedi’u cymeradwyo, a pha fathau o wybodaeth neu awgrymiadau na ellir eu cynnwys.
-
Adolygu’r Telerau Gwasanaeth yn Ofalus
Os ydych yn defnyddio offer trydydd parti, gwiriwch delerau’r darparwr mewn perthynas â’i ddefnydd o ddata a/neu awgrymiadau, a thorri rheolau eiddo deallusol a hawlfraint mewn allbynnau. Dewiswch offer gyda chytundebau menter sy’n cynnig gwarantau ac indemniadau cyfrinachedd a hawlfraint.
-
Monitro Datblygiadau Cyfreithiol
Mae Llywodraeth y DU yn parhau i lunio ei hymagwedd tuag at reoleiddio deallusrwydd artiffisial, felly mae’n bwysig bod yn ymwybodol o’r wybodaeth ddiweddaraf ac addasu eich dulliau wrth i’r dirwedd ddatblygu. Pan ysgrifennwyd y ddogfen hon, roedd Llywodraeth y DU wedi lansio ymgynghoriad ar hawlfraint a deallusrwydd artiffisial. Fe’i gwnaeth yn glir i ddechrau ei bod yn ffafrio dull lle byddai gwaith ar gael i’w ddefnyddio fel data hyfforddiant oni bai bod perchennog yr hawlfraint yn cwblhau elfen optio allan. Ond bellach mae’n ymddangos nad hwn yw’r dull a ffefrir gan y Llywodraeth.
Casgliadau
Mae modelau iaith mawr yn cynnig addewid gwirioneddol o arloesedd yn y sector cyhoeddus, ond mae heriau hawlfraint a chyfrinachedd cymhleth ynghlwm wrthynt. Drwy ddeall y peryglon a chymryd camau rhagweithiol i’w rheoli, gall sefydliadau sector cyhoeddus ddefnyddio deallusrwydd artiffisial yn effeithiol wrth gyflawni eu cyfrifoldebau cyfreithiol a moesegol.
Yn Geldards, mae ein tîm TG a Thechnoleg yn gweithio’n agos gyda chyrff cyhoeddus ledled Cymru a Lloegr i lywio goblygiadau cyfreithiol defnyddio deallusrwydd artiffisial. Os oes angen cyngor ar hawlfraint, cyfrinachedd, caffael neu lywodraethu data arnoch yng nghyd-destun modelau iaith mawr, rydym yma i’ch helpu.