આ શબ્દ ઉંચો લાગે છે, પણ ધ્યેય ખૂબ જ વ્યવહારુ છે: લોકો વિશ્વાસ કરી શકે તેવી AI સિસ્ટમો બનાવવી - કારણ કે તે એવી રીતે ડિઝાઇન, બનાવવામાં અને ઉપયોગમાં લેવાય છે જે માનવ અધિકારોનો આદર કરે છે, નુકસાન ઘટાડે છે અને વાસ્તવિક લાભ પહોંચાડે છે. બસ, મોટે ભાગે બસ.
આ પછી તમને વાંચવા ગમશે તેવા લેખો:
🔗 AI માં MCP શું છે?
મોડ્યુલર કમ્પ્યુટ પ્રોટોકોલ અને AI માં તેની ભૂમિકા સમજાવે છે.
🔗 એજ એઆઈ શું છે?
એજ-આધારિત પ્રક્રિયા કેવી રીતે ઝડપી, સ્થાનિક AI નિર્ણયોને સક્ષમ બનાવે છે તે આવરી લે છે.
🔗 જનરેટિવ AI શું છે?
ટેક્સ્ટ, છબીઓ અને અન્ય મૂળ સામગ્રી બનાવતા મોડેલ્સ રજૂ કરે છે.
🔗 એજન્ટિક એઆઈ શું છે?
ધ્યેય-આધારિત નિર્ણય લેવામાં સક્ષમ સ્વાયત્ત AI એજન્ટોનું વર્ણન કરે છે.
AI એથિક્સ શું છે? સરળ વ્યાખ્યા 🧭
AI નીતિશાસ્ત્ર એ સિદ્ધાંતો, પ્રક્રિયાઓ અને રેલિંગનો સમૂહ છે જે આપણે AI ને કેવી રીતે ડિઝાઇન, વિકાસ, ઉપયોગ અને સંચાલન કરીએ છીએ તેનું માર્ગદર્શન આપે છે જેથી તે માનવ અધિકારો, ન્યાયીતા, જવાબદારી, પારદર્શિતા અને સામાજિક ભલાઈને જાળવી રાખે. તેને અલ્ગોરિધમ્સ માટેના રોજિંદા નિયમો તરીકે વિચારો - વિચિત્ર ખૂણાઓ માટે વધારાની તપાસ સાથે જ્યાં વસ્તુઓ ખોટી થઈ શકે છે.
વૈશ્વિક સ્તરે આ વાતને સમર્થન આપે છે: યુનેસ્કોની ભલામણ માનવ અધિકારો, માનવ દેખરેખ અને ન્યાયને કેન્દ્રિત કરે છે, જેમાં પારદર્શિતા અને ન્યાયીપણાનો સમાવેશ થતો નથી [1]. OECDના AI સિદ્ધાંતો વિશ્વસનીય AI માટે લક્ષ્ય રાખે છે જે લોકશાહી મૂલ્યોનો આદર કરે છે અને સાથે સાથે નીતિ અને એન્જિનિયરિંગ ટીમો માટે વ્યવહારુ રહે છે [2].
ટૂંકમાં, AI નીતિશાસ્ત્ર એ દિવાલ પરનું પોસ્ટર નથી. તે એક પ્લેબુક છે જેનો ઉપયોગ ટીમો જોખમોની અપેક્ષા રાખવા, વિશ્વસનીયતા સાબિત કરવા અને લોકોને સુરક્ષિત રાખવા માટે કરે છે. NIST નું AI જોખમ વ્યવસ્થાપન માળખું નીતિશાસ્ત્રને AI જીવનચક્રમાં સક્રિય જોખમ વ્યવસ્થાપન તરીકે વર્તે છે [3].

સારી AI નીતિશાસ્ત્ર શું બનાવે છે ✅
અહીં તેનું સ્પષ્ટ સંસ્કરણ છે. એક સારો AI એથિક્સ પ્રોગ્રામ:
-
લાઇવ છે, લેમિનેટેડ નથી - નીતિઓ જે વાસ્તવિક એન્જિનિયરિંગ પ્રથાઓ અને સમીક્ષાઓને ચલાવે છે.
-
સમસ્યા ઘડવાથી શરૂ થાય છે - જો ઉદ્દેશ્ય ખોટો હોય, તો કોઈ પણ ન્યાયીતા સુધારણા તેને બચાવી શકશે નહીં.
-
દસ્તાવેજોના નિર્ણયો - આ ડેટા શા માટે, આ મોડેલ શા માટે, આ થ્રેશોલ્ડ શા માટે.
-
સંદર્ભ સાથેના પરીક્ષણો - માત્ર એકંદર ચોકસાઈ (એક મુખ્ય NIST થીમ) [3] નહીં, પરંતુ પેટાજૂથ દ્વારા મૂલ્યાંકન કરો.
-
તેનું કાર્ય બતાવે છે - મોડેલ કાર્ડ્સ, ડેટાસેટ દસ્તાવેજીકરણ, અને સ્પષ્ટ વપરાશકર્તા સંદેશાઓ [5].
-
જવાબદારી બનાવે છે - નામાંકિત માલિકો, એસ્કેલેશન પાથ, ઓડિટબિલિટી.
-
ખુલ્લામાં ટ્રેડ-ઓફને સંતુલિત કરે છે - સલામતી વિરુદ્ધ ઉપયોગિતા વિરુદ્ધ ગોપનીયતા, લખીને.
-
કાયદા સાથે જોડાય છે - જોખમ-આધારિત આવશ્યકતાઓ જે નિયંત્રણોને અસર સાથે માપે છે (EU AI કાયદો જુઓ) [4].
જો તે એક પણ ઉત્પાદનના નિર્ણયને બદલતું નથી, તો તે નીતિશાસ્ત્ર નથી - તે સુશોભન છે.
મોટા પ્રશ્નનો ઝડપી જવાબ: AI એથિક્સ શું છે? 🥤
ટીમો વારંવાર ત્રણ પ્રશ્નોના જવાબ આ રીતે આપે છે:
-
શું આપણે આ બનાવવું જોઈએ?
-
જો હા, તો આપણે નુકસાન કેવી રીતે ઘટાડી શકીએ અને તે કેવી રીતે સાબિત કરી શકીએ?
-
જ્યારે વસ્તુઓ આડેધડ થઈ જાય છે, ત્યારે કોણ જવાબદાર છે અને આગળ શું થાય છે?
કંટાળાજનક રીતે વ્યવહારુ. આશ્ચર્યજનક રીતે મુશ્કેલ. તે મૂલ્યવાન છે.
૬૦-સેકન્ડનો મિની-કેસ (વ્યવહારમાં અનુભવ) 📎
એક ફિનટેક ટીમ એકંદરે ખૂબ જ ચોકસાઈ સાથે છેતરપિંડી મોડેલ મોકલે છે. બે અઠવાડિયા પછી, ચોક્કસ પ્રદેશ-કાયદેસર ચુકવણીઓમાંથી સપોર્ટ ટિકિટ સ્પાઇક અવરોધિત થાય છે. એક પેટાજૂથ સમીક્ષા દર્શાવે છે કે તે લોકેલ માટે રિકોલ સરેરાશ કરતા 12 પોઇન્ટ ઓછો છે. ટીમ ડેટા કવરેજની સમીક્ષા કરે છે, વધુ સારી રજૂઆત સાથે ફરીથી તાલીમ આપે છે, અને એક અપડેટેડ મોડેલ કાર્ડ જોખમ વ્યવસ્થાપન અને વપરાશકર્તા આદર તરીકે નીતિશાસ્ત્ર છે , પોસ્ટર નહીં [3][5].
તમે ખરેખર ઉપયોગ કરી શકો તેવા સાધનો અને ફ્રેમવર્ક 📋
(નાની નાની નાની વાતો જાણી જોઈને સામેલ કરવામાં આવી છે - એ વાસ્તવિક જીવન છે.)
| સાધન અથવા ફ્રેમવર્ક | પ્રેક્ષક | કિંમત | તે કેમ કામ કરે છે | નોંધો |
|---|---|---|---|---|
| NIST AI રિસ્ક મેનેજમેન્ટ ફ્રેમવર્ક | ઉત્પાદન, જોખમ, નીતિ | મફત | સ્પષ્ટ કાર્યો - શાસન, નકશો, માપ, વ્યવસ્થાપન - ટીમોને સંરેખિત | સ્વૈચ્છિક, વ્યાપક સંદર્ભિત [3] |
| OECD AI સિદ્ધાંતો | અધિકારીઓ, નીતિ ઘડવૈયાઓ | મફત | વિશ્વસનીય AI માટે મૂલ્યો + વ્યવહારુ ભલામણો | એક મજબૂત શાસન ઉત્તર-તારો [2] |
| EU AI કાયદો (જોખમ આધારિત) | કાનૂની, પાલન, CTO | મફત* | જોખમ સ્તરો ઉચ્ચ-પ્રભાવિત ઉપયોગો માટે પ્રમાણસર નિયંત્રણો સેટ કરે છે | પાલન ખર્ચ અલગ અલગ હોય છે [4] |
| મોડેલ કાર્ડ્સ | એમએલ એન્જિનિયર્સ, પીએમએસ | મફત | મોડેલ શું છે, શું કરે છે અને ક્યાં નિષ્ફળ જાય છે તે પ્રમાણિત કરે છે | પેપર + ઉદાહરણો અસ્તિત્વમાં છે [5] |
| ડેટાસેટ દસ્તાવેજીકરણ ("ડેટાશીટ્સ") | ડેટા વૈજ્ઞાનિકો | મફત | ડેટા મૂળ, કવરેજ, સંમતિ અને જોખમો સમજાવે છે | તેને પોષણના લેબલની જેમ માનો |
ઊંડાણપૂર્વક ડૂબકી ૧ - સિદ્ધાંતોમાં નહીં, ગતિમાં સિદ્ધાંતો 🏃
-
નિષ્પક્ષતા - વસ્તી વિષયક અને સંદર્ભોમાં કામગીરીનું મૂલ્યાંકન કરો; એકંદર મેટ્રિક્સ નુકસાન છુપાવે છે [3].
-
જવાબદારી - ડેટા, મોડેલ અને ડિપ્લોયમેન્ટ નિર્ણયો માટે માલિકોને સોંપો. નિર્ણય લોગ રાખો.
-
પારદર્શિતા - મોડેલ કાર્ડનો ઉપયોગ કરો; વપરાશકર્તાઓને જણાવો કે નિર્ણય કેટલો સ્વચાલિત છે અને કયા ઉપાયો અસ્તિત્વમાં છે [5].
-
માનવ દેખરેખ - વાસ્તવિક સ્ટોપ/ઓવરરાઇડ પાવર (યુનેસ્કો દ્વારા સ્પષ્ટપણે રજૂ કરાયેલ) [1] સાથે, ઉચ્ચ-જોખમવાળા નિર્ણયો માટે માનવોને લૂપમાં/પર રાખો.
-
ગોપનીયતા અને સુરક્ષા - ડેટા ઓછો કરો અને સુરક્ષિત કરો; અનુમાન-સમય લીકેજ અને ડાઉનસ્ટ્રીમ દુરુપયોગને ધ્યાનમાં લો.
-
લાભદાયીતા - માત્ર સુઘડ KPIs જ નહીં, પણ સામાજિક લાભ દર્શાવો (OECD આ સંતુલનને ફ્રેમ કરે છે) [2].
નાનું વિષયાંતર: ટીમો ક્યારેક મેટ્રિક નામો વિશે કલાકો સુધી દલીલ કરે છે જ્યારે વાસ્તવિક નુકસાનના પ્રશ્નને અવગણે છે. તે કેવી રીતે થાય છે તે રમુજી છે.
ઊંડાણપૂર્વક ડૂબકી લગાવવી 2 - જોખમો અને તેમને કેવી રીતે માપવા 📏
જ્યારે તમે નુકસાનને માપી શકાય તેવા જોખમ તરીકે ગણો છો ત્યારે નૈતિક AI નક્કર બને છે:
-
સંદર્ભ મેપિંગ - કોને સીધી કે આડકતરી રીતે અસર થાય છે? સિસ્ટમ પાસે કઈ નિર્ણય શક્તિ છે?
-
ડેટા ફિટનેસ - પ્રતિનિધિત્વ, પ્રવાહ, લેબલિંગ ગુણવત્તા, સંમતિ માર્ગો.
-
મોડેલ વર્તણૂક - વિતરણ શિફ્ટ, વિરોધી સંકેતો અથવા દૂષિત ઇનપુટ્સ હેઠળ નિષ્ફળતા મોડ્સ.
-
અસર મૂલ્યાંકન - ગંભીરતા × સંભાવના, ઘટાડા અને શેષ જોખમ.
-
જીવનચક્ર નિયંત્રણો - સમસ્યા ઘડવાથી લઈને જમાવટ પછીના નિરીક્ષણ સુધી.
NIST આને ચાર કાર્યોમાં વિભાજીત કરે છે જે ટીમો ચક્રને ફરીથી શોધ્યા વિના અપનાવી શકે છે: શાસન, નકશો, માપ, વ્યવસ્થાપન [3].
ઊંડાણમાં ડૂબકી લગાવો ૩ - દસ્તાવેજીકરણ જે તમને પછીથી બચાવે છે 🗂️
બે નમ્ર કલાકૃતિઓ કોઈપણ સૂત્ર કરતાં વધુ કાર્ય કરે છે:
-
મોડેલ કાર્ડ્સ - મોડેલ શેના માટે છે, તેનું મૂલ્યાંકન કેવી રીતે કરવામાં આવ્યું, તે ક્યાં નિષ્ફળ જાય છે, નૈતિક વિચારણાઓ અને ચેતવણીઓ - ટૂંકું, સંરચિત, વાંચી શકાય તેવું [5].
-
ડેટાસેટ દસ્તાવેજીકરણ ("ડેટાશીટ્સ") - આ ડેટા શા માટે અસ્તિત્વમાં છે, તે કેવી રીતે એકત્રિત કરવામાં આવ્યો હતો, કોનું પ્રતિનિધિત્વ કરવામાં આવ્યું છે, જાણીતા અંતરાયો અને ભલામણ કરેલ ઉપયોગો.
જો તમારે ક્યારેય નિયમનકારો અથવા પત્રકારોને સમજાવવું પડ્યું હોય કે કોઈ મોડેલે શા માટે ગેરવર્તન કર્યું, તો તમે આ લખવા બદલ તમારા ભૂતકાળનો આભાર માનશો. ભવિષ્યમાં - તમે તમારી પાછળની કોફી ખરીદશો.
ડીપ ડાઇવ ૪ - ખરેખર ડંખ મારતું શાસન 🧩
-
જોખમ સ્તરો વ્યાખ્યાયિત કરો - જોખમ-આધારિત વિચાર ઉધાર લો જેથી ઉચ્ચ-અસરવાળા ઉપયોગના કેસોની ઊંડી તપાસ થાય [4].
-
સ્ટેજ ગેટ્સ - ઇનટેક, પ્રી-લોન્ચ અને પોસ્ટ-લોન્ચ સમયે નીતિશાસ્ત્રની સમીક્ષા. પંદર ગેટ્સ નહીં. ત્રણ પુષ્કળ છે.
-
ફરજોનું વિભાજન - વિકાસકર્તાઓ દરખાસ્ત કરે છે, જોખમ ભાગીદારો સમીક્ષા કરે છે, નેતાઓ સહી કરે છે. સ્પષ્ટ રેખાઓ.
-
ઘટના પ્રતિભાવ - મોડેલને કોણ થોભાવે છે, વપરાશકર્તાઓને કેવી રીતે સૂચિત કરવામાં આવે છે, ઉપાય કેવો દેખાય છે.
-
સ્વતંત્ર ઓડિટ - પહેલા આંતરિક; જ્યાં દાવની માંગ હોય ત્યાં બાહ્ય.
-
તાલીમ અને પ્રોત્સાહનો - પુરસ્કાર મુદ્દાઓને વહેલાસર સામે આવે છે, તેમને છુપાવતા નથી.
ચાલો પ્રમાણિક રહીએ: જો શાસન ક્યારેય ના ન , તો તે શાસન નથી.
ડીપ ડાઇવ 5 - લોકો લૂપમાં છે, પ્રોપ્સ તરીકે નહીં 👩⚖️
માનવ દેખરેખ એ કોઈ ચેકબોક્સ નથી - તે ડિઝાઇન પસંદગી છે:
-
જ્યારે માનવીઓ નિર્ણય લે છે - સ્પષ્ટ થ્રેશોલ્ડ જ્યાં વ્યક્તિએ સમીક્ષા કરવી જોઈએ, ખાસ કરીને ઉચ્ચ-જોખમ પરિણામો માટે.
-
નિર્ણય લેનારાઓ માટે સ્પષ્ટતા - માનવીને શા માટે અને અનિશ્ચિતતા .
-
વપરાશકર્તા પ્રતિસાદ લૂપ્સ - વપરાશકર્તાઓને સ્વચાલિત નિર્ણયોનો વિરોધ કરવા અથવા સુધારવા દો.
-
સુલભતા - ઇન્ટરફેસ જે વિવિધ વપરાશકર્તાઓ સમજી શકે છે અને ખરેખર ઉપયોગ કરી શકે છે.
યુનેસ્કોનું માર્ગદર્શન અહીં સરળ છે: માનવ ગૌરવ અને દેખરેખ મુખ્ય છે, વૈકલ્પિક નહીં. ઉત્પાદન એવી રીતે બનાવો કે માનવીઓ જમીનને નુકસાન પહોંચાડતા પહેલા હસ્તક્ષેપ કરી શકે [1].
બાજુની નોંધ - આગામી સીમા: ન્યુરોટેક 🧠
જેમ જેમ AI ન્યુરોટેકનોલોજી સાથે છેદાય છે, માનસિક ગોપનીયતા અને વિચારની સ્વતંત્રતા વાસ્તવિક ડિઝાઇન વિચારણાઓ બની જાય છે. આ જ પ્લેબુક લાગુ પડે છે: અધિકાર-કેન્દ્રિત સિદ્ધાંતો [1], વિશ્વસનીય-બાય-ડિઝાઇન શાસન [2], અને ઉચ્ચ-જોખમવાળા ઉપયોગો માટે પ્રમાણસર સુરક્ષા [4]. તેમને પછીથી બોલ્ટ કરવાને બદલે પ્રારંભિક રેલ બનાવો.
ટીમો કેવી રીતે જવાબ આપે છે AI એથિક્સ શું છે? વ્યવહારમાં - એક વર્કફ્લો 🧪
આ સરળ લૂપ અજમાવી જુઓ. તે સંપૂર્ણ નથી, પણ તે ખૂબ જ અસરકારક છે:
-
હેતુ તપાસ - આપણે કઈ માનવ સમસ્યા હલ કરી રહ્યા છીએ, અને કોને ફાયદો થાય છે કે કોને જોખમ થાય છે?
-
સંદર્ભ નકશો - હિસ્સેદારો, વાતાવરણ, મર્યાદાઓ, જાણીતા જોખમો.
-
ડેટા પ્લાન - સ્ત્રોતો, સંમતિ, પ્રતિનિધિત્વ, જાળવણી, દસ્તાવેજીકરણ.
-
સલામતી માટે ડિઝાઇન - વિરોધી પરીક્ષણ, રેડ-ટીમિંગ, ગોપનીયતા-બાય-ડિઝાઇન.
-
વાજબીતાને વ્યાખ્યાયિત કરો - ડોમેન-યોગ્ય મેટ્રિક્સ પસંદ કરો; દસ્તાવેજ ટ્રેડ-ઓફ.
-
સમજૂતી યોજના - શું સમજાવવામાં આવશે, કોને, અને તમે ઉપયોગિતાને કેવી રીતે માન્ય કરશો.
-
મોડેલ કાર્ડ - વહેલા ડ્રાફ્ટ કરો, જેમ જેમ તમે કરો તેમ અપડેટ કરો, લોન્ચ સમયે પ્રકાશિત કરો [5].
-
ગવર્નન્સ ગેટ્સ - જવાબદાર માલિકો સાથે જોખમ સમીક્ષાઓ; NIST ના કાર્યોનો ઉપયોગ કરીને માળખું [3].
-
લોન્ચ પછીનું મોનિટરિંગ - મેટ્રિક્સ, ડ્રિફ્ટ ચેતવણીઓ, ઘટના પ્લેબુક્સ, વપરાશકર્તા અપીલ.
જો કોઈ પગલું ભારે લાગે, તો તેને જોખમમાં નાખો. આ જ યુક્તિ છે. જોડણી-સુધારણા બોટને વધુ પડતું એન્જિનિયરિંગ કરવાથી કોઈને ફાયદો થતો નથી.
નૈતિકતા વિરુદ્ધ પાલન - મસાલેદાર પણ જરૂરી તફાવત 🌶️
-
નીતિશાસ્ત્ર પૂછે છે: શું આ લોકો માટે યોગ્ય છે?
-
પાલન પૂછે છે: શું આ નિયમપુસ્તકને પૂર્ણ કરે છે?
તમારે બંનેની જરૂર છે. EU નું જોખમ-આધારિત મોડેલ તમારા પાલનનો આધાર બની શકે છે, પરંતુ તમારા નીતિશાસ્ત્ર કાર્યક્રમે લઘુત્તમ મર્યાદાઓથી આગળ વધવું જોઈએ - ખાસ કરીને અસ્પષ્ટ અથવા નવા ઉપયોગના કિસ્સાઓમાં [4].
એક ઝડપી (ત્રુટિપૂર્ણ) રૂપક: પાલન એ વાડ છે; નીતિશાસ્ત્ર એ ભરવાડ છે. વાડ તમને સીમામાં રાખે છે; ભરવાડ તમને સાચા માર્ગે આગળ ધપાવતો રાખે છે.
સામાન્ય મુશ્કેલીઓ - અને તેના બદલે શું કરવું 🚧
-
પિટફોલ: એથિક્સ થિયેટર - કોઈ સંસાધન વિનાના ફેન્સી સિદ્ધાંતો.
સુધારો: સમય, માલિકો અને સમીક્ષા ચેકપોઇન્ટ્સ સમર્પિત કરો. -
મુશ્કેલી: નુકસાનને સરેરાશ દૂર કરવું - મહાન એકંદર મેટ્રિક્સ પેટાજૂથની નિષ્ફળતાને છુપાવે છે.
સુધારો: હંમેશા સંબંધિત પેટાવસ્તી દ્વારા મૂલ્યાંકન કરો [3]. -
મુશ્કેલી: સલામતીનો ઢોંગ કરીને ગુપ્તતા - વપરાશકર્તાઓથી વિગતો છુપાવવી.
સુધારો: ક્ષમતાઓ, મર્યાદાઓ અને આશ્રયને સરળ ભાષામાં જાહેર કરો [5]. -
મુશ્કેલી: અંતે ઓડિટ - લોન્ચ પહેલાં જ સમસ્યાઓ શોધવી.
સુધારો: ડાબી બાજુ ખસેડો - નૈતિકતાને ડિઝાઇન અને ડેટા સંગ્રહનો ભાગ બનાવો. -
મુશ્કેલી: નિર્ણય વિના ચેકલિસ્ટ્સ - નીચેના સ્વરૂપો, અર્થ નહીં.
સુધારો: નિષ્ણાત સમીક્ષા અને વપરાશકર્તા સંશોધન સાથે ટેમ્પલેટ્સને જોડો.
વારંવાર પૂછાતા પ્રશ્નો - જે તમને કોઈપણ રીતે પૂછવામાં આવશે ❓
શું AI એથિક્સ નવીનતા વિરોધી છે?
ના. તે ઉપયોગી નવીનતા તરફી છે. નીતિશાસ્ત્ર પક્ષપાતી સિસ્ટમો જેવા મૃત અંતને ટાળે છે જે પ્રતિક્રિયા અથવા કાનૂની મુશ્કેલીને ઉત્તેજિત કરે છે. OECD ફ્રેમિંગ સ્પષ્ટપણે સલામતી સાથે નવીનતાને પ્રોત્સાહન આપે છે [2].
જો આપણું ઉત્પાદન ઓછું જોખમ ધરાવતું હોય તો શું આપણને આની જરૂર છે?
હા, પણ હળવું. પ્રમાણસર નિયંત્રણોનો ઉપયોગ કરો. તે જોખમ-આધારિત વિચાર EU અભિગમમાં પ્રમાણભૂત છે [4].
કયા દસ્તાવેજો હોવા જરૂરી છે?
ઓછામાં ઓછા: તમારા મુખ્ય ડેટાસેટ્સ માટે ડેટાસેટ દસ્તાવેજીકરણ, દરેક મોડેલ માટે એક મોડેલ કાર્ડ અને રિલીઝ નિર્ણય લોગ [5].
એઆઈ એથિક્સ કોના માલિક છે?
દરેક વ્યક્તિ વર્તનની માલિકી ધરાવે છે, પરંતુ ઉત્પાદન, ડેટા સાયન્સ અને જોખમ ટીમોને નામવાળી જવાબદારીઓની જરૂર છે. NIST ના કાર્યો એક સારા સ્કેફોલ્ડ છે [3].
ખૂબ લાંબા સમય સુધી વાંચ્યું નથી - અંતિમ ટિપ્પણી 💡
જો તમે આ બધું વાંચીને જોયું હોય, તો અહીં મુખ્ય વાત છે: AI નીતિશાસ્ત્ર શું છે? તે AI બનાવવા માટે એક વ્યવહારુ શિસ્ત છે જેના પર લોકો વિશ્વાસ કરી શકે. વ્યાપકપણે સ્વીકૃત માર્ગદર્શન - UNESCO ના અધિકાર-કેન્દ્રિત દૃષ્ટિકોણ અને OECD ના વિશ્વસનીય AI સિદ્ધાંતો પર આધાર રાખો. તેને કાર્યરત કરવા માટે NIST ના જોખમ માળખાનો ઉપયોગ કરો, અને મોડેલ કાર્ડ્સ અને ડેટાસેટ દસ્તાવેજીકરણ સાથે મોકલો જેથી તમારી પસંદગીઓ સુવાચ્ય બને. પછી વપરાશકર્તાઓને, હિસ્સેદારોને, તમારા પોતાના નિરીક્ષણને સાંભળતા રહો - અને સમાયોજિત કરો. નીતિશાસ્ત્ર એકલા હાથે કરવામાં આવતી નથી; તે એક આદત છે.
અને હા, ક્યારેક તમે ચોક્કસ સુધારશો. એ નિષ્ફળતા નથી. એ જ કામ છે. 🌱
સંદર્ભ
-
યુનેસ્કો - કૃત્રિમ બુદ્ધિમત્તાની નીતિશાસ્ત્ર પર ભલામણ (2021). લિંક
-
OECD - AI સિદ્ધાંતો (2019). લિંક
-
NIST - આર્ટિફિશિયલ ઇન્ટેલિજન્સ રિસ્ક મેનેજમેન્ટ ફ્રેમવર્ક (AI RMF 1.0) (2023) (PDF). લિંક
-
EUR-લેક્સ - નિયમન (EU) 2024/1689 (AI કાયદો). લિંક
-
મિશેલ અને અન્ય - "મોડેલ રિપોર્ટિંગ માટે મોડેલ કાર્ડ્સ" (ACM, 2019). લિંક