Kiel Tranĉi Atenton Al AI Malpliiĝas En Partiaj Datumaroj

Partiaj Datumaroj kaj Etika AI

Solvoj funkciigitaj kun AI bezonas datumajn arojn por esti efikaj. Kaj la kreado de tiuj datumserioj plenigas implican antaŭjuĝan problemon je sistema nivelo. Ĉiuj homoj suferas de antaŭjuĝoj (kaj konsciaj kaj senkonsciaj). La biasoj povas preni iujn ajn formojn: geografiaj, lingvaj, sociekonomikaj, seksismaj kaj rasismaj. Kaj tiuj sistemaj biasoj estas bakitaj en datumoj, kiuj povas rezultigi AI-produktojn, kiuj eternigas kaj pligrandigas biason. Organizoj bezonas atentan aliron por mildigi kontraŭ antaŭjuĝo enŝteliĝanta en datumseriojn.

Ekzemploj Kiu Illustras la Bias-Problemon

Unu rimarkinda ekzemplo de ĉi tiu datuma arta antaŭjuĝo, kiu tiutempe rikoltis multe da negativa gazetaro, estis resuma lega solvo, kiu favoris virajn kandidatojn super inoj. Ĉi tio estas ĉar la datumaroj de varbilo estis disvolvitaj per rekomendoj de la pasinta jardeko, kiam plimulto de kandidatoj estis viraj. La datumoj estis partiaj kaj la rezultoj reflektis tiun biason. 

Alia vaste raportita ekzemplo: En la ĉiujara konferenco de programistoj de Google I / O, Google dividis antaŭrigardon pri helpa ilo funkciigita de AI, kiu helpas homojn kompreni, kio okazas kun aferoj rilataj al iliaj haŭto, haroj kaj ungoj. La dermatologia asistanto substrekas kiel AI evoluas por helpi pri sanservo - sed ĝi ankaŭ emfazis la eblon de biaso enŝteliĝi en AI post kritiko, ke la ilo ne taŭgas por koloraj homoj.

Kiam Google anoncis la ilon, la kompanio rimarkis:

Por certigi, ke ni konstruas por ĉiuj, nia modelo konsideras faktorojn kiel aĝo, sekso, raso kaj haŭtaj tipoj — de pala haŭto, kiu ne sunbrunas, ĝis bruna haŭto, kiu malofte brulas.

Google, Uzante AI por helpi trovi respondojn al oftaj haŭtaj kondiĉoj

Sed artikolo en Vice diris, ke Google malsukcesis uzi inkluzivan datuman aron:

Por plenumi la taskon, la esploristoj uzis trejnan datumbazon de 64,837 bildoj de 12,399 pacientoj situantaj en du ŝtatoj. Sed el la miloj da haŭtaj statoj, nur 3.5 procentoj venis de pacientoj kun Fitzpatrick-haŭtospecoj V kaj VI - tiuj reprezentantaj brunan haŭton kaj malhelbrunan aŭ nigran haŭton, respektive. 90 procentoj de la datumbazo estis kunmetitaj de homoj kun hela haŭto, pli malhela blanka haŭto aŭ helbruna haŭto, laŭ la studo. Kiel rezulto de la partia specimenigo, dermatologoj diras, ke la programo povus fini tro aŭ sub-diagnozi homojn, kiuj ne estas blankaj.

Vice, la Nova Dermatologia Apo de Guglo ne estis desegnita por homoj kun pli malhela haŭto

Google respondis dirante, ke ĝi rafinus la ilon antaŭ ol liberigi ĝin formale:

Nia AI-funkciigita dermatologio-helpilo estas la kulmino de pli ol tri jaroj da esplorado. Ĉar nia laboro estis prezentita en Nature Medicine, ni daŭre disvolvis kaj rafinis nian teknologion kun la aliĝo de pliaj datumaroj, kiuj inkluzivas datumojn donacitajn de miloj da homoj, kaj milionojn da pli curataj haŭtaj zorgaj bildoj.

Google, Uzante AI por helpi trovi respondojn al oftaj haŭtaj kondiĉoj

Kiom ajn ni povus esperi, ke AI kaj maŝinlernaj programoj povus korekti ĉi tiujn antaŭjuĝojn, la realaĵo restas: ili estas tiel inteligentaj ĉar iliaj datenoj estas puraj. En ĝisdatigo al la malnova programado rubo en / rubo eksteren, AI-solvoj estas nur same fortaj kiel la kvalito de siaj datumaj aroj de la komenco. Sen korekto de programistoj, ĉi tiuj datumaj aroj ne havas la fonan sperton por ripari sin - ĉar ili simple ne havas alian referencon.

Konstrui datumajn arojn respondece estas la kerno de ĉiuj etika artefarita inteligenteco. Kaj homoj estas ĉe la kerno de la solvo. 

Atenta AI estas Etika AI

Biaso ne okazas en vakuo. Neetikaj aŭ partiaj datumaj aroj venas de preni malĝustan aliron dum la evolufazo. La maniero kontraŭbatali antaŭjuĝajn erarojn estas adopti respondecan, homcentritan, aliron, kiun multaj en la industrio nomas Mindful AI. Atenta AI havas tri kritikajn komponentojn:

1. Atenta AI estas Hom-Centrita

Ekde la komenco de la AI-projekto, en la planaj etapoj, la bezonoj de homoj devas esti en la centro de ĉiu decido. Kaj tio signifas ĉiujn homojn - ne nur subaron. Tial programistoj devas fidi je diversa teamo de tutmonde bazitaj homoj por trejni AI-aplikaĵojn por esti inkluzivaj kaj senpartiaj.

Kunvenado de la datumaj aroj de tutmonda, diversa teamo certigas ke biasoj estas identigitaj kaj filtritaj frue. Tiuj de diversaj etnoj, aĝoklasoj, seksoj, edukaj niveloj, sociekonomikaj fonoj kaj lokoj povas pli facile ekvidi datumajn arojn, kiuj favoras unu aron de valoroj super alia, tiel forigante neintencitan biason.

Rigardu voĉajn aplikaĵojn. Kiam oni aplikas atentan AI-aliron kaj ekspluatas la potencon de tutmonda talenta aro, programistoj povas respondeci pri lingvaj elementoj kiel ekzemple malsamaj dialektoj kaj supersignoj en la datumaj aroj.

Establi hom-centran projektan kadron de la komenco estas kritike. Ĝi iras longan vojon por certigi, ke la datumoj generitaj, prizorgataj kaj etikeditaj renkontas la atendon de la finaj uzantoj. Sed ankaŭ gravas teni homojn en la buklo dum la tuta produkta evolua vivociklo. 

Homoj en la buklo ankaŭ povas helpi maŝinojn krei pli bonan AI-sperton por ĉiu specifa publiko. Ĉe Pactera EDGE, niaj AI-datumprojektaj teamoj, situantaj tutmonde, komprenas kiel malsamaj kulturoj kaj kuntekstoj povas influi la kolekton kaj kuracadon de fidindaj AI-trejnaj datumoj. Ili havas la necesajn ilojn, kiujn ili bezonas por marki problemojn, kontroli ilin kaj ripari ilin antaŭ ol AI-bazita solvo ekfunkcios.

Human-in-the-loop AI estas projekto "sekureca reto" kiu kombinas la fortojn de homoj - kaj iliajn diversajn fonojn kun la rapida komputika potenco de maŝinoj. Ĉi tiu homa kaj AI-kunlaboro devas esti establita ekde la komenco de la programoj por ke partiaj datumoj ne formu fundamenton en la projekto. 

2. Atenta AI Estas Respondeca

Respondecigi estas certigi, ke AI-sistemoj estas liberaj de antaŭjuĝoj kaj ke ili baziĝas sur etiko. Temas pri atentado pri kiel, kial kaj kie datumoj estas kreitaj, kiel ĝi estas sintezita de AI-sistemoj, kaj kiel ĝi estas uzata por decido, decidoj kiuj povas havi etikajn implicojn. Unu maniero por entrepreno fari tion estas labori kun subreprezentitaj komunumoj por esti pli inkluzivaj kaj malpli partiaj. En la kampo de datenkomentadoj, nova esplorado elstarigas kiel multi-konotator-multaska modelo, kiu traktas la etikedojn de ĉiu komentario kiel apartan subtaskon, povas helpi mildigi eblajn problemojn enecajn en tipaj grundaj veraj metodoj kie komentarioj malkonsentoj povas ŝuldiĝi al sub-reprezentaĵoj kaj povas esti ignorata en la agregado de komentarioj al ununura tera vero. 

3. Fidinda

Fidindeco venas de komerco travidebla kaj klarigebla pri kiel la AI-modelo estas trejnita, kiel ĝi funkcias, kaj kial ili rekomendas la rezultojn. Komerco bezonas kompetentecon kun AI-lokigo por ebligi al siaj klientoj fari siajn AI-aplikaĵojn pli inkluzivaj kaj personecigitaj, respektante kritikajn nuancojn en loka lingvo kaj uzantspertoj kiuj povas fari aŭ rompi la kredindecon de AI-solvo de unu lando al la sekva. . Ekzemple, kompanio devas desegni siajn aplikojn por personecigitaj kaj lokaj kuntekstoj, inkluzive lingvojn, dialektojn kaj supersignojn en voĉ-bazitaj aplikoj. Tiel, aplikaĵo alportas la saman nivelon de voĉa sperto-sofistikeco al ĉiu lingvo, de la angla ĝis subreprezentitaj lingvoj.

Justeco kaj Diverseco

Finfine, atenta AI certigas, ke solvoj estas konstruitaj sur justaj kaj diversaj datumaroj, kie la konsekvencoj kaj efiko de apartaj rezultoj estas kontrolataj kaj taksataj antaŭ ol la solvo ekmerkatiĝos. Konsiderante kaj inkluzivante homojn en ĉiu parto de la disvolviĝo de la solvo, ni helpas certigi AI-modelojn restas puraj, minimume partiaj kaj kiel eble plej etikaj.

Kion vi pensas?

Ĉi tiu retejo uzas Akismeton por redukti spamon. Lernu, kiel via komento datiĝas.