સંક્ષિપ્ત જવાબ: જનરેટિવ AI નો ઉપયોગ કરતા ડેવલપર્સ સમગ્ર સિસ્ટમ માટે જવાબદાર છે, ફક્ત મોડેલના આઉટપુટ માટે જ નહીં. જ્યારે AI નિર્ણયો, કોડ, ગોપનીયતા અથવા વપરાશકર્તા વિશ્વાસને પ્રભાવિત કરે છે, ત્યારે તેમણે સલામત એપ્લિકેશનો પસંદ કરવી જોઈએ, પરિણામો ચકાસવા જોઈએ, ડેટાનું રક્ષણ કરવું જોઈએ, નુકસાન ઘટાડવું જોઈએ અને ખાતરી કરવી જોઈએ કે લોકો ભૂલોની સમીક્ષા કરી શકે, ઓવરરાઇડ કરી શકે અને સુધારી શકે.
મુખ્ય બાબતો:
ચકાસણી : જ્યાં સુધી સ્ત્રોતો, પરીક્ષણો અથવા માનવ સમીક્ષા તેની પુષ્ટિ ન કરે ત્યાં સુધી પોલિશ્ડ આઉટપુટને અવિશ્વસનીય ગણો.
ડેટા સુરક્ષા : પ્રોમ્પ્ટ ડેટા ઓછો કરો, ઓળખકર્તાઓ દૂર કરો અને લોગ, ઍક્સેસ નિયંત્રણો અને વિક્રેતાઓને સુરક્ષિત કરો.
નિષ્પક્ષતા : રૂઢિપ્રયોગો અને અસમાન નિષ્ફળતા પેટર્નને પકડવા માટે વસ્તી વિષયક અને સંદર્ભોમાં પરીક્ષણ કરો.
પારદર્શિતા : AI ના ઉપયોગને સ્પષ્ટ રીતે લેબલ કરો, તેની મર્યાદાઓ સમજાવો અને માનવ સમીક્ષા અથવા અપીલ પ્રદાન કરો.
જવાબદારી : લોન્ચ પહેલાં જમાવટ, ઘટનાઓ, દેખરેખ અને રોલબેક માટે સ્પષ્ટ માલિકોને સોંપો.

આ પછી તમને વાંચવા ગમશે તેવા લેખો:
🔗 સોફ્ટવેર ડેવલપર્સ માટે શ્રેષ્ઠ AI ટૂલ્સ: ટોચના AI-સંચાલિત કોડિંગ સહાયકો
ઝડપી, સ્વચ્છ વિકાસ કાર્યપ્રવાહ માટે ટોચના AI કોડિંગ સહાયકોની તુલના કરો.
🔗 ઉત્પાદકતા વધારવા માટે વિકાસકર્તાઓ માટે ટોચના 10 AI સાધનો
સ્માર્ટ કોડિંગ અને ઝડપ માટે ડેવલપર AI ટૂલ્સની ક્રમાંકિત યાદી.
🔗 સમાજ અને વિશ્વાસ માટે AI કેમ ખરાબ હોઈ શકે છે
વાસ્તવિક દુનિયાના નુકસાન સમજાવે છે: પૂર્વગ્રહ, ગોપનીયતા, નોકરીઓ અને ખોટી માહિતીના જોખમો.
🔗 શું AI ઉચ્ચ દાવ પર નિર્ણય લેવામાં ખૂબ આગળ વધી ગયું છે?
એઆઈ ક્યારે સીમાઓ પાર કરે છે તે વ્યાખ્યાયિત કરે છે: સર્વેલન્સ, ડીપફેક્સ, સમજાવટ, કોઈ સંમતિ નહીં.
જનરેટિવ AI નો ઉપયોગ કરતા ડેવલપર્સની જવાબદારી લોકો વિચારે છે તેના કરતાં કેમ વધુ મહત્વની છે
ઘણા બધા સોફ્ટવેર બગ્સ હેરાન કરે છે. એક બટન તૂટે છે. એક પેજ ધીમે ધીમે લોડ થાય છે. કંઈક ક્રેશ થાય છે અને બધા રડે છે.
જનરેટિવ AI સમસ્યાઓ અલગ અલગ હોઈ શકે છે. તે સૂક્ષ્મ પણ હોઈ શકે છે.
એક મોડેલ ખોટું હોવા છતાં આત્મવિશ્વાસપૂર્ણ લાગે છે. NIST GenAI પ્રોફાઇલ તે સ્પષ્ટ ચેતવણી ચિહ્નો વિના પૂર્વગ્રહનું પુનરુત્પાદન કરી શકે છે. NIST GenAI પ્રોફાઇલ જો બેદરકારીપૂર્વક ઉપયોગ કરવામાં આવે તો તે સંવેદનશીલ ડેટાને ઉજાગર કરી શકે છે. LLM એપ્લિકેશન્સ માટે OWASP ટોચના 10 ICO ના જનરેટિવ AI માટે આઠ પ્રશ્નો તે એવા કોડનું ઉત્પાદન કરી શકે છે જે કામ કરે છે - જ્યાં સુધી તે ઉત્પાદનમાં કોઈ ખૂબ જ શરમજનક રીતે નિષ્ફળ ન જાય. LLM એપ્લિકેશન્સ માટે OWASP ટોચના 10 એક ખૂબ જ ઉત્સાહી ઇન્ટર્નને નોકરી પર રાખવા જેવું છે જે ક્યારેય ઊંઘતો નથી અને સમય સમય પર અદભુત આત્મવિશ્વાસ સાથે હકીકતો શોધે છે.
એટલા માટે જનરેટિવ AI નો ઉપયોગ કરતા ડેવલપર્સની જવાબદારી સરળ અમલીકરણ કરતાં મોટી છે. ડેવલપર્સ હવે ફક્ત લોજિક સિસ્ટમ્સ જ બનાવી રહ્યા નથી. તેઓ ઝાંખી ધાર, અણધારી આઉટપુટ અને વાસ્તવિક સામાજિક પરિણામો સાથે સંભાવના સિસ્ટમ્સ બનાવી રહ્યા છે. NIST AI RMF
તેનો અર્થ એ કે જવાબદારીમાં શામેલ છે:
-
NIST AI RMF મોડેલની મર્યાદાઓને સમજવી
-
વપરાશકર્તાની ગોપનીયતાનું રક્ષણ કરવું AI અને ડેટા સુરક્ષા પર ICO માર્ગદર્શન
-
હાનિકારક આઉટપુટ ઘટાડવું NIST GenAI પ્રોફાઇલ
-
ટ્રસ્ટ આપવામાં આવે તે પહેલાં ચોકસાઈ તપાસવી NIST GenAI પ્રોફાઇલ
-
માનવ ભૂમિકાને સ્પષ્ટ બનાવવી OECD AI સિદ્ધાંતો
-
જ્યારે AI નિષ્ફળ જાય ત્યારે ફોલબેક પાથ ડિઝાઇન કરવા OECD AI સિદ્ધાંતો NCSC સુરક્ષિત AI માર્ગદર્શિકા
-
સિસ્ટમનું સ્પષ્ટપણે દસ્તાવેજીકરણ OECD AI સિદ્ધાંતો
તમે જાણો છો કે તે કેવી રીતે ચાલે છે - જ્યારે કોઈ સાધન જાદુઈ લાગે છે, ત્યારે લોકો તેના પર પ્રશ્ન કરવાનું બંધ કરી દે છે. વિકાસકર્તાઓ આટલા હળવા રહેવાનું પરવડી શકે તેમ નથી.
જનરેટિવ AI નો ઉપયોગ કરીને ડેવલપર્સની જવાબદારીનું સારું સંસ્કરણ શું બનાવે છે? 🛠️
જવાબદારીનું સારું સંસ્કરણ પ્રદર્શનકારી નથી. તે ફક્ત તળિયે ડિસ્ક્લેમર ઉમેરીને તેને નીતિશાસ્ત્ર કહેવાનું નથી. તે ડિઝાઇન પસંદગીઓ, પરીક્ષણ ટેવો અને ઉત્પાદન વર્તનમાં દેખાય છે.
જનરેટિવ AI નો ઉપયોગ કરતા ડેવલપર્સની જવાબદારીનું મજબૂત સંસ્કરણ સામાન્ય રીતે આના જેવું દેખાય છે:
-
ઇરાદાપૂર્વક ઉપયોગ NIST AI RMF
-
AIનો ઉપયોગ વાસ્તવિક સમસ્યા માટે થઈ રહ્યો છે, નહીં કે પ્રોડક્ટમાં એટલા માટે તેનો ઉપયોગ કરવામાં આવી રહ્યો છે કારણ કે તે ફેશનેબલ લાગે છે.
-
-
માનવ દેખરેખ OECD AI સિદ્ધાંતો
-
લોકો આઉટપુટની સમીક્ષા, સુધારણા, ઓવરરાઇડ અથવા નકારી શકે છે.
-
-
ડિઝાઇન દ્વારા સલામતી NCSC સુરક્ષિત AI માર્ગદર્શિકા
-
જોખમ નિયંત્રણો શરૂઆતમાં જ બનાવવામાં આવે છે, પછીથી ડક્ટ-ટેપ્ડ નહીં.
-
-
પારદર્શિતા OECD AI સિદ્ધાંતો યુરોપિયન કમિશન AI એક્ટ ઝાંખી
-
વપરાશકર્તાઓ સમજે છે કે સામગ્રી ક્યારે AI-જનરેટેડ છે કે AI-સહાયિત છે.
-
-
ડેટા કેર ICO ના આઠ પ્રશ્નો
-
સંવેદનશીલ માહિતી કાળજીપૂર્વક ગણવામાં આવે છે, અને તેની ઍક્સેસ મર્યાદિત હોય છે.
-
-
AI અને ડેટા સુરક્ષા પર NIST GenAI પ્રોફાઇલ ફેરનેસ તપાસ કરે છે
-
સિસ્ટમનું પૂર્વગ્રહ, અસમાન કામગીરી અને હાનિકારક પેટર્ન માટે પરીક્ષણ કરવામાં આવે છે.
-
-
ચાલુ દેખરેખ NIST AI RMF NCSC સુરક્ષિત AI માર્ગદર્શિકા
-
લોન્ચ એ અંતિમ રેખા નથી. તે શરૂઆતની સીટી જેવું છે.
-
જો તે ઘણું લાગે છે, તો સારું... તે છે. પરંતુ જ્યારે તમે ટેકનોલોજી સાથે કામ કરો છો જે નિર્ણયો, માન્યતાઓ અને વર્તનને મોટા પાયે પ્રભાવિત કરી શકે છે ત્યારે તે જ સોદો છે. OECD AI સિદ્ધાંતો
સરખામણી કોષ્ટક - જનરેટિવ AI નો ઉપયોગ કરતા ડેવલપર્સની મુખ્ય જવાબદારી એક નજરમાં 📋
| જવાબદારી ક્ષેત્ર | તે કોને અસર કરે છે | દૈનિક વિકાસકર્તા પ્રેક્ટિસ | તે કેમ મહત્વનું છે |
|---|---|---|---|
| ચોકસાઈ અને ચકાસણી | વપરાશકર્તાઓ, ટીમો, ગ્રાહકો | આઉટપુટની સમીક્ષા કરો, માન્યતા સ્તરો ઉમેરો, એજ કેસોનું પરીક્ષણ કરો | AI અસ્ખલિત હોઈ શકે છે અને છતાં પણ ખૂબ જ ખોટું હોઈ શકે છે - જે એક રફ સંયોજન છે NIST GenAI પ્રોફાઇલ |
| ગોપનીયતા સુરક્ષા | વપરાશકર્તાઓ, ગ્રાહકો, આંતરિક સ્ટાફ | સંવેદનશીલ ડેટાનો ઉપયોગ ઓછો કરો, પ્રોમ્પ્ટ સાફ કરો, લોગ નિયંત્રિત કરો | એકવાર ખાનગી ડેટા લીક થઈ જાય, પછી ટૂથપેસ્ટ ટ્યુબમાંથી બહાર નીકળી જાય છે 😬 જનરેટિવ AI OWASP માટે ICO ના આઠ પ્રશ્નો LLM એપ્લિકેશનો માટે ટોચના 10 |
| પક્ષપાત અને ન્યાયીપણું | ઓછા પ્રતિનિધિત્વ ધરાવતા જૂથો, ખરેખર બધા વપરાશકર્તાઓ | ઓડિટ આઉટપુટ, વિવિધ ઇનપુટ્સનું પરીક્ષણ, સલામતીને સમાયોજિત કરો | નુકસાન હંમેશા મોટેથી હોતું નથી - ક્યારેક તે વ્યવસ્થિત અને શાંત હોય છે NIST GenAI પ્રોફાઇલ AI અને ડેટા સુરક્ષા પર ICO માર્ગદર્શન |
| સુરક્ષા | કંપની સિસ્ટમ્સ, વપરાશકર્તાઓ | મોડેલ ઍક્સેસને પ્રતિબંધિત કરો, તાત્કાલિક ઇન્જેક્શન, સેન્ડબોક્સ જોખમી ક્રિયાઓ સામે બચાવો | એક ચાલાક પરાક્રમ ઝડપથી વિશ્વાસ તોડી શકે છે OWASP LLM એપ્લિકેશન માટે ટોચના 10 AI અને સાયબર સુરક્ષા પર NCSC |
| પારદર્શિતા | અંતિમ વપરાશકર્તાઓ, નિયમનકારો, સહાયક ટીમો | AI વર્તનને સ્પષ્ટ રીતે લેબલ કરો, મર્યાદાઓ સમજાવો, દસ્તાવેજનો ઉપયોગ કરો | લોકો જાણવા લાયક છે કે મશીન ક્યારે OECD AI ને AI-જનરેટેડ સામગ્રીના માર્કિંગ અને લેબલિંગ પર સિદ્ધાંતો આચાર સંહિતા |
| જવાબદારી | ઉત્પાદન માલિકો, કાનૂની, વિકાસ ટીમો | માલિકી, ઘટનાનું સંચાલન, વૃદ્ધિના માર્ગો વ્યાખ્યાયિત કરો | "એઆઈએ તે કર્યું" એ કોઈ પુખ્ત વયના લોકોનો જવાબ નથી OECD AI સિદ્ધાંતો |
| વિશ્વસનીયતા | ઉત્પાદનને સ્પર્શતા દરેક વ્યક્તિ | નિષ્ફળતાઓનું નિરીક્ષણ કરો, આત્મવિશ્વાસ થ્રેશોલ્ડ સેટ કરો, ફોલબેક લોજિક બનાવો | મોડેલો અણધારી રીતે નિષ્ફળ જાય છે, અને સમય સમય પર નાટકીય નાનો એપિસોડ આવે છે NIST AI RMF NCSC સુરક્ષિત AI માર્ગદર્શિકા |
| વપરાશકર્તા સુખાકારી | ખાસ કરીને સંવેદનશીલ વપરાશકર્તાઓ | ચાલાકીપૂર્ણ ડિઝાઇન ટાળો, હાનિકારક આઉટપુટ મર્યાદિત કરો, ઉચ્ચ જોખમવાળા ઉપયોગના કેસોની સમીક્ષા કરો | ફક્ત એટલા માટે કે કંઈક ઉત્પન્ન થઈ શકે છે તેનો અર્થ એ નથી કે તે OECD AI સિદ્ધાંતો NIST AI RMF |
થોડું અસમાન ટેબલ, ચોક્કસ, પણ તે વિષયને અનુકૂળ આવે છે. વાસ્તવિક જવાબદારી પણ અસમાન છે.
જવાબદારી પ્રથમ સંકેત પહેલાં શરૂ થાય છે - યોગ્ય ઉપયોગ કેસ પસંદ કરવો 🎯
વિકાસકર્તાઓની સૌથી મોટી જવાબદારીઓમાંની એક એ નક્કી કરવાની છે કે જનરેટિવ AI નો ઉપયોગ બિલકુલ થવો જોઈએ કે નહીં . NIST AI RMF
તે સ્પષ્ટ લાગે છે, પરંતુ તે હંમેશા છોડી દેવામાં આવે છે. ટીમો એક મોડેલ જુએ છે, ઉત્સાહિત થાય છે, અને તેને વર્કફ્લોમાં દબાણ કરવાનું શરૂ કરે છે જે નિયમો, શોધ અથવા સામાન્ય સોફ્ટવેર લોજિક દ્વારા વધુ સારી રીતે નિયંત્રિત કરી શકાય છે. દરેક સમસ્યાને ભાષા મોડેલની જરૂર હોતી નથી. કેટલીક સમસ્યાઓ માટે ડેટાબેઝ અને શાંત બપોરની જરૂર હોય છે.
બાંધકામ પહેલાં, વિકાસકર્તાઓએ પૂછવું જોઈએ:
-
શું કાર્ય ખુલ્લું છે કે નિર્ણાયક છે?
-
શું ખોટા આઉટપુટથી નુકસાન થઈ શકે છે?
-
શું વપરાશકર્તાઓને સર્જનાત્મકતા, આગાહી, સારાંશ, ઓટોમેશનની જરૂર છે - કે ફક્ત ગતિની?
-
શું લોકો આઉટપુટ પર વધુ પડતો વિશ્વાસ કરશે? NIST GenAI પ્રોફાઇલ
-
શું કોઈ માનવી વાસ્તવિક રીતે પરિણામોની સમીક્ષા કરી શકે છે? OECD AI સિદ્ધાંતો
-
જ્યારે મોડેલ ખોટું હોય ત્યારે શું થાય છે? OECD AI સિદ્ધાંતો
એક જવાબદાર ડેવલપર ફક્ત એ જ પૂછતો નથી કે, "શું આપણે આ બનાવી શકીએ?" તેઓ પૂછે છે, "શું આ આ રીતે બનાવવું જોઈએ?" NIST AI RMF
આ પ્રશ્ન પોતે જ ઘણી બધી ચળકતી બકવાસને અટકાવે છે.
ચોકસાઈ એ જવાબદારી છે, બોનસ સુવિધા નથી ✅
ચાલો સ્પષ્ટ થઈએ - જનરેટિવ AI માં સૌથી મોટા ફાંદાઓમાંનો એક એ છે કે વાક્પટુતાને સત્ય સાથે ભૂલ કરવી. મોડેલો ઘણીવાર એવા જવાબો ઉત્પન્ન કરે છે જે પોલિશ્ડ, સ્ટ્રક્ચર્ડ અને ઊંડાણપૂર્વક ખાતરીકારક લાગે છે. જે સુંદર છે, જ્યાં સુધી સામગ્રી વિશ્વાસમાં લપેટાયેલી બકવાસ ન હોય. NIST GenAI પ્રોફાઇલ
તેથી જનરેટિવ AI નો ઉપયોગ કરતા ડેવલપર્સની જવાબદારીમાં ચકાસણી માટે બિલ્ડિંગનો સમાવેશ થાય છે.
તેનો અર્થ એ કે:
-
શક્ય હોય ત્યાં પુનઃપ્રાપ્તિ અથવા ગ્રાઉન્ડિંગનો ઉપયોગ કરીને NIST GenAI પ્રોફાઇલ
-
પુષ્ટિ થયેલ તથ્યોથી જનરેટ કરેલી સામગ્રીને અલગ પાડવી OECD AI સિદ્ધાંતો
-
આત્મવિશ્વાસ થ્રેશોલ્ડ કાળજીપૂર્વક ઉમેરી રહ્યા છીએ NIST AI RMF
-
ઉચ્ચ-હિસ્સાના આઉટપુટ માટે સમીક્ષા વર્કફ્લો બનાવવી OECD AI સિદ્ધાંતો
-
જટિલ સંદર્ભોમાં મોડેલને ઇમ્પ્રુવાઇઝ કરતા અટકાવવું NIST GenAI પ્રોફાઇલ
-
સિસ્ટમને તોડવા અથવા ગેરમાર્ગે દોરવાનો પ્રયાસ કરતા પરીક્ષણ સંકેતો OWASP LLM એપ્લિકેશનો માટે ટોચના 10
આ ક્ષેત્રોમાં ખૂબ મહત્વનું છે જેમ કે:
-
આરોગ્યસંભાળ
-
નાણાકીય વ્યવસ્થા
-
કાનૂની કાર્યપ્રવાહ
-
શિક્ષણ
-
ગ્રાહક સપોર્ટ
-
એન્ટરપ્રાઇઝ ઓટોમેશન
-
કોડ જનરેશન
ઉદાહરણ તરીકે, જનરેટ કરેલો કોડ સુરક્ષા ખામીઓ અથવા તર્ક ભૂલોને છુપાવતી વખતે વ્યવસ્થિત દેખાઈ શકે છે. જે ડેવલપર તેની આંધળી નકલ કરે છે તે કાર્યક્ષમ નથી - તેઓ ફક્ત વધુ સુંદર ફોર્મેટમાં જોખમ આઉટસોર્સ કરી રહ્યા છે. OWASP LLM એપ્લિકેશનો માટે ટોચના 10 AI અને સાયબર સુરક્ષા પર NCSC
આ મોડેલ મદદ કરી શકે છે. વિકાસકર્તા હજુ પણ પરિણામનો માલિક છે. OECD AI સિદ્ધાંતો
ગોપનીયતા અને ડેટા સ્ટેવાર્ડશિપ બિન-વાટાઘાટોપાત્ર છે 🔐
અહીં વસ્તુઓ ઝડપથી ગંભીર બની જાય છે. જનરેટિવ AI સિસ્ટમ્સ ઘણીવાર પ્રોમ્પ્ટ, લોગ, સંદર્ભ વિંડોઝ, મેમરી લેયર્સ, એનાલિટિક્સ અને તૃતીય-પક્ષ ઇન્ફ્રાસ્ટ્રક્ચર પર આધાર રાખે છે. તે સંવેદનશીલ ડેટા લીક થવાની, ટકી રહેવાની અથવા વપરાશકર્તાઓએ ક્યારેય અપેક્ષા ન રાખી હોય તેવી રીતે ફરીથી ઉપયોગમાં લેવાની પુષ્કળ શક્યતાઓ બનાવે છે. જનરેટિવ AI OWASP માટે ICO ના આઠ પ્રશ્નો LLM એપ્લિકેશન્સ માટે ટોચના 10
વિકાસકર્તાઓની જવાબદારી છે કે તેઓ આનું રક્ષણ કરે:
-
વ્યક્તિગત માહિતી
-
નાણાકીય રેકોર્ડ
-
તબીબી વિગતો
-
કંપનીનો આંતરિક ડેટા
-
વેપાર રહસ્યો
-
પ્રમાણીકરણ ટોકન્સ
-
ક્લાયન્ટ સંદેશાવ્યવહાર
જવાબદાર પ્રથાઓમાં શામેલ છે:
-
જનરેટિવ AI માટે મોડેલ ICO ના આઠ પ્રશ્નોમાં કયા ડેટાનો સમાવેશ થાય છે તેને ન્યૂનતમ બનાવવો
-
ઓળખકર્તાઓને માસ્ક કરવું અથવા દૂર કરવું NIST GenAI પ્રોફાઇલ
-
લોગ રીટેન્શન મર્યાદિત કરવું AI અને ડેટા સુરક્ષા પર ICO માર્ગદર્શન
-
પ્રોમ્પ્ટ અને આઉટપુટ કોણ ઍક્સેસ કરી શકે છે તેનું નિયંત્રણ OWASP LLM એપ્લિકેશનો માટે ટોચના 10
-
વિક્રેતા સેટિંગ્સની કાળજીપૂર્વક સમીક્ષા કરી રહ્યા છીએ NCSC સુરક્ષિત AI માર્ગદર્શિકા
-
ઉચ્ચ-જોખમવાળા વર્કફ્લોને અલગ કરવા NCSC સુરક્ષિત AI માર્ગદર્શિકા
-
વપરાશકર્તાઓ માટે ગોપનીયતા વર્તન દૃશ્યમાન બનાવવું જનરેટિવ AI માટે ICO ના આઠ પ્રશ્નો
આ એવા ક્ષેત્રોમાંનું એક છે જ્યાં "આપણે તેના વિશે વિચારવાનું ભૂલી ગયા" એ નાની ભૂલ નથી. તે વિશ્વાસ તોડનારી નિષ્ફળતા છે.
અને વિશ્વાસ, એકવાર તૂટે પછી, પડી ગયેલા કાચની જેમ ફેલાય છે. કદાચ આ સૌથી સુંદર રૂપક નથી, પણ તમે સમજી શકો છો.
પક્ષપાત, ન્યાયીપણા અને પ્રતિનિધિત્વ - શાંત જવાબદારીઓ ⚖️
જનરેટિવ AI માં પક્ષપાત ભાગ્યે જ કાર્ટૂન વિલન હોય છે. તે સામાન્ય રીતે તેના કરતા વધુ લપસણો હોય છે. એક મોડેલ સ્પષ્ટ ચેતવણીઓ આપ્યા વિના રૂઢિગત નોકરી વર્ણનો, અસમાન મધ્યસ્થતા નિર્ણયો, એકતરફી ભલામણો અથવા સાંસ્કૃતિક રીતે સંકુચિત ધારણાઓ રજૂ કરી શકે છે. NIST GenAI પ્રોફાઇલ
એટલા માટે જનરેટિવ AI નો ઉપયોગ કરતા ડેવલપર્સની જવાબદારીમાં સક્રિય ન્યાયી કાર્યનો સમાવેશ થાય છે.
વિકાસકર્તાઓએ:
-
વિવિધ વસ્તી વિષયક અને સંદર્ભોમાંથી પરીક્ષણ સંકેતો NIST GenAI પ્રોફાઇલ
-
સ્ટીરિયોટાઇપ્સ અને બાકાત માટે સમીક્ષા આઉટપુટ NIST GenAI પ્રોફાઇલ
-
મૂલ્યાંકન દરમિયાન વિવિધ દ્રષ્ટિકોણનો સમાવેશ કરો NIST AI RMF
-
અસમાન નિષ્ફળતા પેટર્ન માટે જુઓ NIST GenAI પ્રોફાઇલ
-
એક ભાષા શૈલી અથવા સાંસ્કૃતિક ધોરણ દરેકને અનુકૂળ આવે છે એવું માનવાનું ટાળો AI અને ડેટા સુરક્ષા પર ICO માર્ગદર્શન
-
હાનિકારક આઉટપુટ માટે રિપોર્ટિંગ ચેનલો બનાવો NIST AI RMF
એક સિસ્ટમ એકંદરે સારી રીતે કામ કરતી દેખાય છે, જ્યારે કેટલાક વપરાશકર્તાઓને સતત અન્ય કરતા ખરાબ સેવા આપે છે. તે સ્વીકાર્ય નથી કારણ કે ડેશબોર્ડ પર સરેરાશ પ્રદર્શન સારું દેખાય છે. AI અને ડેટા સુરક્ષા પર ICO માર્ગદર્શન NIST GenAI પ્રોફાઇલ
અને હા, ન્યાયીપણું એક સુઘડ ચેકલિસ્ટ કરતાં વધુ મુશ્કેલ છે. તેમાં નિર્ણયશક્તિ છે. સંદર્ભ. ટ્રેડઓફ્સ. થોડી અગવડતા પણ છે. પરંતુ તે જવાબદારી દૂર કરતું નથી - તે તેની પુષ્ટિ કરે છે. AI અને ડેટા સુરક્ષા પર ICO માર્ગદર્શન
સુરક્ષા હવે પ્રોમ્પ્ટ ડિઝાઇનનો ભાગ છે, એન્જિનિયરિંગનો ભાગ છે 🧱
જનરેટિવ AI સુરક્ષા એ એક અનોખી બાબત છે. અલબત્ત, પરંપરાગત એપ્લિકેશન સુરક્ષા હજુ પણ મહત્વપૂર્ણ છે, પરંતુ AI સિસ્ટમ્સ અસામાન્ય હુમલાની સપાટીઓ ઉમેરે છે: પ્રોમ્પ્ટ ઇન્જેક્શન, પરોક્ષ પ્રોમ્પ્ટ મેનિપ્યુલેશન, અસુરક્ષિત ટૂલનો ઉપયોગ, સંદર્ભ દ્વારા ડેટા એક્સફિલ્ટ્રેશન અને ઓટોમેટેડ વર્કફ્લો દ્વારા મોડેલનો દુરુપયોગ. LLM એપ્લિકેશન્સ માટે OWASP ટોચના 10 AN અને સાયબર સુરક્ષા પર NCSC
ડેવલપર્સ ફક્ત ઇન્ટરફેસ જ નહીં, પરંતુ સંપૂર્ણ સિસ્ટમને સુરક્ષિત રાખવા માટે જવાબદાર છે. NCSC સુરક્ષિત AI માર્ગદર્શિકા
અહીં મુખ્ય જવાબદારીઓમાં શામેલ છે:
-
અવિશ્વસનીય ઇનપુટને સેનિટાઇઝ કરવું OWASP LLM એપ્લિકેશનો માટે ટોચના 10
-
મોડેલ કયા સાધનોને OWASP કહી શકે તે મર્યાદિત કરવું LLM એપ્લિકેશનો માટે ટોચના 10
-
ફાઇલ અને નેટવર્ક ઍક્સેસને પ્રતિબંધિત કરવા NCSC સુરક્ષિત AI માર્ગદર્શિકા
-
પરવાનગીઓને અલગ પાડવાની સ્પષ્ટતા NCSC સુરક્ષિત AI માર્ગદર્શિકા
-
દુરુપયોગ પેટર્નનું નિરીક્ષણ NCSC સુરક્ષિત AI માર્ગદર્શિકા
-
દર-મર્યાદિત ખર્ચાળ અથવા જોખમી ક્રિયાઓ OWASP LLM અરજીઓ માટે ટોચના 10
-
પરીક્ષણ વિરોધી પ્રોમ્પ્ટ્સ OWASP LLM એપ્લિકેશન્સ માટે ટોચના 10
-
સૂચનાઓનો વિરોધાભાસ થાય ત્યારે સલામત ફોલબેક બનાવવું OECD AI સિદ્ધાંતો
એક અસ્વસ્થતાભર્યું સત્ય એ છે કે વપરાશકર્તાઓ - અને હુમલાખોરો - ચોક્કસપણે એવી વસ્તુઓ અજમાવશે જે વિકાસકર્તાઓએ અપેક્ષા રાખી ન હતી. કેટલાક જિજ્ઞાસાથી, કેટલાક દ્વેષથી, કેટલાક કારણ કે તેઓએ રાત્રે 2 વાગ્યે ખોટી વસ્તુ પર ક્લિક કર્યું. આવું થાય છે.
જનરેટિવ AI માટે સુરક્ષા દિવાલ બનાવવા જેવી ઓછી છે અને ખૂબ જ વાચાળ દ્વારપાલને મેનેજ કરવા જેવી છે જે ક્યારેક શબ્દસમૂહો દ્વારા છેતરાઈ જાય છે.
પારદર્શિતા અને વપરાશકર્તા સંમતિ આકર્ષક UX કરતાં વધુ મહત્વપૂર્ણ છે 🗣️
જ્યારે વપરાશકર્તાઓ AI સાથે ક્રિયાપ્રતિક્રિયા કરે છે, ત્યારે તેમને તે ખબર હોવી જોઈએ. OECD AI સિદ્ધાંતો આચાર સંહિતા
અસ્પષ્ટ રીતે નહીં. શબ્દોમાં દફનાવવામાં આવ્યા નથી. સ્પષ્ટપણે.
જનરેટિવ AI નો ઉપયોગ કરતા ડેવલપર્સની જવાબદારીનો મુખ્ય ભાગ એ સુનિશ્ચિત કરવાનો છે કે વપરાશકર્તાઓ સમજે છે:
-
જ્યારે AI નો ઉપયોગ થઈ રહ્યો છે OECD AI સિદ્ધાંતો
-
AI શું કરી શકે છે અને શું ન કરી શકે OECD AI સિદ્ધાંતો
-
શું આઉટપુટની સમીક્ષા માનવો દ્વારા કરવામાં આવે છે OECD AI સિદ્ધાંતો
-
તેમના ડેટાની પ્રક્રિયા કેવી રીતે થાય છે જનરેટિવ AI માટે ICO ના આઠ પ્રશ્નો
-
તેમને કયા સ્તરનો આત્મવિશ્વાસ હોવો જોઈએ NIST AI RMF
-
સમસ્યાઓની જાણ કેવી રીતે કરવી અથવા નિર્ણયો પર અપીલ કેવી રીતે કરવી OECD AI સિદ્ધાંતો NIST AI RMF
પારદર્શિતા એ વપરાશકર્તાઓને ડરાવવા વિશે નથી. તે તેમનો આદર કરવા વિશે છે.
સારી પારદર્શિતામાં શામેલ હોઈ શકે છે:
-
સામગ્રીના માર્કિંગ અને લેબલિંગ પર પ્રેક્ટિસ કોડ જેવા લેબલ્સ
-
સરળ ભાષામાં સમજૂતીઓ OECD AI સિદ્ધાંતો
-
જ્યાં સંબંધિત હોય ત્યાં દૃશ્યમાન સંપાદન ઇતિહાસ
-
AI સુવિધાઓ બંધ કરવાના વિકલ્પો
-
જરૂર પડે ત્યારે માનવી સુધી પહોંચવા માટે OECD AI સિદ્ધાંતો
-
ઉચ્ચ-જોખમી કાર્યો માટે સંક્ષિપ્ત ચેતવણીઓ યુરોપિયન કમિશન AI એક્ટ ઝાંખી
ઘણી બધી પ્રોડક્ટ ટીમો ચિંતા કરે છે કે પ્રામાણિકતા સુવિધાને ઓછી જાદુઈ બનાવશે. કદાચ. પરંતુ ખોટી નિશ્ચિતતા વધુ ખરાબ છે. એક સરળ ઇન્ટરફેસ જે જોખમને છુપાવે છે તે મૂળભૂત રીતે પોલિશ્ડ મૂંઝવણ છે.
મોડેલ "નક્કી કરે" ત્યારે પણ ડેવલપર્સ જવાબદાર રહે છે 👀
આ ભાગ ખૂબ જ મહત્વપૂર્ણ છે. જવાબદારી મોડેલ વિક્રેતા, મોડેલ કાર્ડ, પ્રોમ્પ્ટ ટેમ્પ્લેટ અથવા મશીન લર્નિંગના રહસ્યમય વાતાવરણને આઉટસોર્સ કરી શકાતી નથી. OECD AI સિદ્ધાંતો NIST AI RMF
વિકાસકર્તાઓ હજુ પણ જવાબદાર છે. OECD AI સિદ્ધાંતો
તેનો અર્થ એ કે ટીમમાં કોઈની પાસે આ હોવું જોઈએ:
-
મોડેલ પસંદગી NIST AI RMF
-
પરીક્ષણ ધોરણો NIST GenAI પ્રોફાઇલ
-
પ્રકાશન માપદંડ NIST GenAI પ્રોફાઇલ
-
ઘટના પ્રતિભાવ NCSC સુરક્ષિત AI માર્ગદર્શિકા
-
વપરાશકર્તા ફરિયાદનું સંચાલન NIST AI RMF
-
રોલબેક પ્રક્રિયાઓ OECD AI સિદ્ધાંતો
-
ફેરફાર ટ્રેકિંગ OECD AI સિદ્ધાંતો
-
દસ્તાવેજીકરણ OECD AI સિદ્ધાંતો
નીચેના પ્રશ્નોના સ્પષ્ટ જવાબો હોવા જોઈએ:
-
કોણ જમાવટને મંજૂરી આપે છે? NIST GenAI પ્રોફાઇલ
-
હાનિકારક-આઉટપુટ ઘટનાઓની સમીક્ષા કોણ કરે છે? NIST GenAI પ્રોફાઇલ
-
આ સુવિધા કોણ અક્ષમ કરી શકે છે? OECD AI સિદ્ધાંતો
-
રીગ્રેશન પર કોણ નજર રાખે છે? NIST AI RMF
-
જ્યારે કંઈક તૂટી જાય ત્યારે વપરાશકર્તાઓ સાથે કોણ વાતચીત કરે છે? OECD AI સિદ્ધાંતો
માલિકી વગર, જવાબદારી ધુમ્મસમાં ફેરવાઈ જાય છે. દરેક વ્યક્તિ ધારે છે કે કોઈ બીજું તેને સંભાળી રહ્યું છે... અને પછી કોઈ નથી.
હકીકતમાં, તે પેટર્ન AI કરતાં જૂની છે. AI તેને વધુ ખતરનાક બનાવે છે.
જવાબદાર વિકાસકર્તાઓ સુધારણા માટે બનાવે છે, સંપૂર્ણતા માટે નહીં 🔄
આ બધામાં એક નાનો વળાંક છે: જવાબદાર AI વિકાસ એ સિસ્ટમ સંપૂર્ણ હશે તેવું ડોળ કરવા વિશે નથી. તે ધારી લેવા વિશે છે કે તે કોઈ રીતે નિષ્ફળ જશે અને તે વાસ્તવિકતાની આસપાસ ડિઝાઇન કરશે. NIST AI RMF
તેનો અર્થ એ છે કે નિર્માણ ઉત્પાદનો જે:
-
ઓડિટેબલ OECD AI સિદ્ધાંતો
-
નિર્ણયો અને પરિણામોની સમીક્ષા પછીથી થઈ શકે છે
-
-
વિક્ષેપિત OECD AI સિદ્ધાંતો
-
મનુષ્યો ખરાબ વર્તનને રોકી શકે છે અથવા તેને રદ કરી શકે છે
-
-
પુનઃપ્રાપ્તિપાત્ર OECD AI સિદ્ધાંતો
-
જ્યારે AI આઉટપુટ ખોટું હોય ત્યારે ફોલબેક થાય છે
-
-
મોનિટરેબલ NCSC સુરક્ષિત AI માર્ગદર્શિકા NIST AI RMF
-
ટીમો આપત્તિ બનતા પહેલા પેટર્ન શોધી શકે છે
-
-
ઇમ્પ્રુવેબલ NIST GenAI પ્રોફાઇલ
-
પ્રતિસાદ લૂપ્સ અસ્તિત્વમાં છે, અને કોઈ તેમને વાંચે છે
-
પરિપક્વતા આના જેવી દેખાય છે. ચમકતા ડેમો નહીં. શ્વાસ ન ભરેલી માર્કેટિંગ નકલ નહીં. વાસ્તવિક સિસ્ટમો, જેમાં રેલિંગ, લોગ, જવાબદારી અને મશીન જાદુગર નથી તે સ્વીકારવા માટે પૂરતી નમ્રતા છે. NCSC સુરક્ષિત AI માર્ગદર્શિકા OECD AI સિદ્ધાંતો
કારણ કે તે નથી. તે એક સાધન છે. એક શક્તિશાળી, હા. પણ હજુ પણ એક સાધન છે.
જનરેટિવ AI નો ઉપયોગ કરતા ડેવલપર્સની જવાબદારી પર અંતિમ ચિંતન 🌍
તો, જનરેટિવ AI નો ઉપયોગ કરતા ડેવલપર્સની જવાબદારી ?
તે કાળજી સાથે નિર્માણ કરવાનું છે. સિસ્ટમ ક્યાં મદદ કરે છે અને ક્યાં નુકસાન પહોંચાડે છે તે અંગે પ્રશ્ન ઉઠાવવો. ગોપનીયતાનું રક્ષણ કરવું. પૂર્વગ્રહ માટે પરીક્ષણ કરવું. આઉટપુટ ચકાસવા. કાર્યપ્રવાહને સુરક્ષિત કરવો. વપરાશકર્તાઓ સાથે પારદર્શક રહેવું. મનુષ્યોને અર્થપૂર્ણ નિયંત્રણમાં રાખવા. જ્યારે વસ્તુઓ ખોટી થાય ત્યારે જવાબદાર રહેવું. NIST AI RMF OECD AI સિદ્ધાંતો
તે મુશ્કેલ લાગે છે - અને તે છે. પરંતુ તે જ બાબત વિચારશીલ વિકાસને અવિચારી ઓટોમેશનથી અલગ પાડે છે.
જનરેટિવ AI નો ઉપયોગ કરતા શ્રેષ્ઠ વિકાસકર્તાઓ એવા નથી જે મોડેલને સૌથી વધુ યુક્તિઓ કરવા માટે પ્રેરે છે. તેઓ એવા છે જે તે યુક્તિઓના પરિણામોને સમજે છે, અને તે મુજબ ડિઝાઇન કરે છે. તેઓ ગતિનું મહત્વ જાણે છે, પરંતુ વિશ્વાસ એ વાસ્તવિક ઉત્પાદન છે. વિચિત્ર રીતે, તે જૂના જમાનાનો વિચાર હજુ પણ ટકી રહે છે. NIST AI RMF
અંતે, જવાબદારી નવીનતા માટે અવરોધ નથી. તે જ નવીનતાને ખર્ચાળ, તોફાની ફેલાવામાં ફેરવાતા અટકાવે છે, જેમાં સુંદર ઇન્ટરફેસ અને આત્મવિશ્વાસની સમસ્યા હોય છે 😬✨
અને કદાચ તે તેનું સૌથી સરળ સંસ્કરણ છે.
હિંમતભેર બનાવો, ખાતરી કરો - પણ એવું બનાવો કે લોકો પ્રભાવિત થઈ શકે, કારણ કે તેઓ પ્રભાવિત થાય છે. OECD AI સિદ્ધાંતો
વારંવાર પૂછાતા પ્રશ્નો
વ્યવહારમાં જનરેટિવ AI નો ઉપયોગ કરતા વિકાસકર્તાઓની જવાબદારી શું છે?
જનરેટિવ AI નો ઉપયોગ કરતા વિકાસકર્તાઓની જવાબદારી સુવિધાઓને ઝડપથી પહોંચાડવાથી ઘણી આગળ વધે છે. તેમાં યોગ્ય ઉપયોગ કેસ પસંદ કરવો, આઉટપુટનું પરીક્ષણ કરવું, ગોપનીયતાનું રક્ષણ કરવું, હાનિકારક વર્તણૂક ઘટાડવી અને વપરાશકર્તાઓ માટે સિસ્ટમને સમજી શકાય તેવું બનાવવાનો સમાવેશ થાય છે. વ્યવહારમાં, જ્યારે સાધન નિષ્ફળ જાય ત્યારે તે કેવી રીતે ડિઝાઇન, દેખરેખ, સુધારણા અને સંચાલિત થાય છે તેની જવાબદારી વિકાસકર્તાઓ રહે છે.
જનરેટિવ AI ને સામાન્ય સોફ્ટવેર કરતાં ડેવલપરની વધુ જવાબદારી શા માટે જરૂરી છે?
પરંપરાગત ભૂલો ઘણીવાર સ્પષ્ટ હોય છે, પરંતુ જનરેટિવ AI નિષ્ફળતાઓ ખોટી, પક્ષપાતી અથવા જોખમી હોવા છતાં પોલિશ્ડ લાગે છે. તેનાથી સમસ્યાઓ ઓળખવી મુશ્કેલ બને છે અને વપરાશકર્તાઓ માટે ભૂલથી વિશ્વાસ કરવાનું સરળ બને છે. વિકાસકર્તાઓ સંભાવના સિસ્ટમો સાથે કામ કરી રહ્યા છે, તેથી જવાબદારીમાં અનિશ્ચિતતાને સંભાળવી, નુકસાન મર્યાદિત કરવું અને લોન્ચ પહેલાં અણધારી આઉટપુટ માટે તૈયારી કરવી શામેલ છે.
વિકાસકર્તાઓને કેવી રીતે ખબર પડે કે જનરેટિવ AI નો ઉપયોગ ક્યારે ન કરવો જોઈએ?
એક સામાન્ય શરૂઆત એ પૂછવું છે કે શું કાર્ય ખુલ્લા અંત સુધી ચાલે છે કે નિયમો, શોધ અથવા માનક સોફ્ટવેર તર્ક દ્વારા વધુ સારી રીતે નિયંત્રિત થાય છે. વિકાસકર્તાઓએ એ પણ ધ્યાનમાં લેવું જોઈએ કે ખોટા જવાબથી કેટલું નુકસાન થઈ શકે છે અને શું માનવી વાસ્તવિક રીતે પરિણામોની સમીક્ષા કરી શકે છે. જવાબદાર ઉપયોગનો અર્થ ક્યારેક જનરેટિવ AI નો ઉપયોગ ન કરવાનો નિર્ણય લેવો થાય છે.
જનરેટિવ AI સિસ્ટમ્સમાં ડેવલપર્સ ભ્રમ અને ખોટા જવાબો કેવી રીતે ઘટાડી શકે છે?
ચોકસાઈ ધારણામાં નહીં, પણ ડિઝાઇન કરવાની જરૂર છે. ઘણી પાઇપલાઇન્સમાં, તેનો અર્થ એ છે કે વિશ્વસનીય સ્ત્રોતોમાં આઉટપુટને ગ્રાઉન્ડ કરવું, જનરેટ કરેલા ટેક્સ્ટને ચકાસાયેલ તથ્યોથી અલગ કરવું અને ઉચ્ચ-જોખમવાળા કાર્યો માટે સમીક્ષા વર્કફ્લોનો ઉપયોગ કરવો. વિકાસકર્તાઓએ સિસ્ટમને મૂંઝવણમાં મૂકવા અથવા ગેરમાર્ગે દોરવા માટેના સંકેતોનું પણ પરીક્ષણ કરવું જોઈએ, ખાસ કરીને કોડ, સપોર્ટ, ફાઇનાન્સ, શિક્ષણ અને આરોગ્યસંભાળ જેવા ક્ષેત્રોમાં.
ગોપનીયતા અને સંવેદનશીલ ડેટા માટે જનરેટિવ AI નો ઉપયોગ કરતા ડેવલપર્સની જવાબદારી શું છે?
જનરેટિવ AI નો ઉપયોગ કરતા ડેવલપર્સની જવાબદારીમાં મોડેલમાં પ્રવેશતા ડેટાને ઓછો કરવો અને પ્રોમ્પ્ટ, લોગ અને આઉટપુટને સંવેદનશીલ ગણવાનો સમાવેશ થાય છે. ડેવલપરોએ શક્ય હોય ત્યાં ઓળખકર્તાઓને દૂર કરવા જોઈએ, રીટેન્શન મર્યાદિત કરવા જોઈએ, ઍક્સેસને નિયંત્રિત કરવી જોઈએ અને વિક્રેતા સેટિંગ્સની કાળજીપૂર્વક સમીક્ષા કરવી જોઈએ. વપરાશકર્તાઓએ પછીથી જોખમો શોધવાને બદલે તેમના ડેટાને કેવી રીતે હેન્ડલ કરવામાં આવે છે તે સમજવામાં પણ સક્ષમ હોવા જોઈએ.
જનરેટિવ AI આઉટપુટમાં વિકાસકર્તાઓએ પૂર્વગ્રહ અને ન્યાયીપણાને કેવી રીતે હેન્ડલ કરવી જોઈએ?
પૂર્વગ્રહયુક્ત કાર્ય માટે સક્રિય મૂલ્યાંકનની જરૂર છે, ધારણાઓ નહીં. એક વ્યવહારુ અભિગમ એ છે કે વિવિધ વસ્તી વિષયક, ભાષાઓ અને સંદર્ભોમાં સંકેતોનું પરીક્ષણ કરવું, પછી સ્ટીરિયોટાઇપ્સ, બાકાત અથવા અસમાન નિષ્ફળતા પેટર્ન માટે આઉટપુટની સમીક્ષા કરવી. વિકાસકર્તાઓએ વપરાશકર્તાઓ અથવા ટીમો માટે હાનિકારક વર્તનની જાણ કરવા માટે રીતો પણ બનાવવી જોઈએ, કારણ કે સિસ્ટમ એકંદરે મજબૂત દેખાઈ શકે છે જ્યારે હજુ પણ ચોક્કસ જૂથોને સતત નિષ્ફળ કરી શકે છે.
જનરેટિવ AI સાથે વિકાસકર્તાઓએ કયા સુરક્ષા જોખમો વિશે વિચારવાની જરૂર છે?
જનરેટિવ AI નવી એટેક સપાટીઓ રજૂ કરે છે, જેમાં પ્રોમ્પ્ટ ઇન્જેક્શન, અસુરક્ષિત ટૂલનો ઉપયોગ, સંદર્ભ દ્વારા ડેટા લીકેજ અને ઓટોમેટેડ ક્રિયાઓનો દુરુપયોગનો સમાવેશ થાય છે. ડેવલપર્સે અવિશ્વસનીય ઇનપુટને સેનિટાઇઝ કરવું જોઈએ, ટૂલ પરવાનગીઓને પ્રતિબંધિત કરવી જોઈએ, ફાઇલ અને નેટવર્ક ઍક્સેસને મર્યાદિત કરવી જોઈએ અને દુરુપયોગના પેટર્ન પર નજર રાખવી જોઈએ. સુરક્ષા ફક્ત ઇન્ટરફેસ વિશે નથી; તે મોડેલની આસપાસના સંપૂર્ણ વર્કફ્લો પર લાગુ પડે છે.
જનરેટિવ AI સાથે નિર્માણ કરતી વખતે પારદર્શિતા શા માટે મહત્વપૂર્ણ છે?
વપરાશકર્તાઓને સ્પષ્ટપણે ખબર હોવી જોઈએ કે AI ક્યારે સામેલ છે, તે શું કરી શકે છે અને તેની મર્યાદાઓ ક્યાં છે. સારી પારદર્શિતામાં AI-જનરેટેડ અથવા AI-સહાયિત, સરળ સમજૂતીઓ અને માનવ સમર્થન માટે સ્પષ્ટ માર્ગો જેવા લેબલ શામેલ હોઈ શકે છે. આ પ્રકારની નિખાલસતા ઉત્પાદનને નબળી પાડતી નથી; તે વપરાશકર્તાઓને વિશ્વાસને કેલિબ્રેટ કરવામાં અને વધુ સારા નિર્ણયો લેવામાં મદદ કરે છે.
જ્યારે જનરેટિવ AI ફીચર નુકસાન પહોંચાડે છે અથવા કંઈક ખોટું કરે છે ત્યારે કોણ જવાબદાર છે?
મોડેલ જવાબ આપે ત્યારે પણ, વિકાસકર્તાઓ અને ઉત્પાદન ટીમો હજુ પણ પરિણામની માલિકી ધરાવે છે. તેનો અર્થ એ કે ડિપ્લોયમેન્ટ મંજૂરી, ઘટના સંભાળવા, રોલબેક, દેખરેખ અને વપરાશકર્તા સંદેશાવ્યવહાર માટે સ્પષ્ટ જવાબદારી હોવી જોઈએ. "મોડેલે નક્કી કર્યું" પૂરતું નથી, કારણ કે જવાબદારી તે લોકો સાથે રહેવી જોઈએ જેમણે સિસ્ટમ ડિઝાઇન અને લોન્ચ કરી.
લોન્ચ પછી જવાબદાર જનરેટિવ AI ડેવલપમેન્ટ કેવું દેખાય છે?
પ્રકાશન પછી દેખરેખ, પ્રતિસાદ, સમીક્ષા અને સુધારણા દ્વારા જવાબદાર વિકાસ ચાલુ રહે છે. મજબૂત સિસ્ટમો ઓડિટેબલ, વિક્ષેપિત, પુનઃપ્રાપ્તિયોગ્ય હોય છે અને જ્યારે AI નિષ્ફળ જાય છે ત્યારે ફોલબેક પાથ સાથે ડિઝાઇન કરવામાં આવે છે. ધ્યેય પૂર્ણતા નથી; તે કંઈક એવું બનાવવાનું છે જે વાસ્તવિક દુનિયાની સમસ્યાઓ દેખાય ત્યારે તપાસી શકાય, સુધારી શકાય અને સુરક્ષિત રીતે ગોઠવી શકાય.
સંદર્ભ
-
નેશનલ ઇન્સ્ટિટ્યૂટ ઓફ સ્ટાન્ડર્ડ્સ એન્ડ ટેકનોલોજી (NIST) - NIST GenAI પ્રોફાઇલ - nvlpubs.nist.gov
-
OWASP - LLM અરજીઓ માટે OWASP ટોચના 10 - owasp.org
-
માહિતી કમિશનર ઓફિસ (ICO) - જનરેટિવ AI માટે ICO ના આઠ પ્રશ્નો - ico.org.uk