ટૂંકો જવાબ: જ્યારે AI ને ઉચ્ચ-દાવના નિર્ણયો, દેખરેખ અથવા સમજાવટમાં મજબૂત મર્યાદાઓ, જાણકાર સંમતિ અને અપીલ કરવાનો સાચો અધિકાર વિના ઉપયોગમાં લેવામાં આવે છે ત્યારે તે ખૂબ આગળ નીકળી ગયું છે. જ્યારે ડીપફેક્સ અને સ્કેલેબલ કૌભાંડો વિશ્વાસને જુગાર જેવો બનાવે છે ત્યારે તે ફરીથી સીમા પાર કરે છે. જો લોકો કહી શકતા નથી કે AI એ ભૂમિકા ભજવી છે, સમજી શકતા નથી કે નિર્ણય શા માટે આ રીતે આવ્યો, અથવા નાપસંદ કરી શકતા નથી, તો તે પહેલાથી જ ખૂબ દૂર છે.
મુખ્ય બાબતો:
સીમાઓ: સિસ્ટમ શું કરી શકતી નથી તે વ્યાખ્યાયિત કરો, ખાસ કરીને જ્યારે અનિશ્ચિતતા વધારે હોય.
જવાબદારી: ખાતરી કરો કે માણસો દંડ અથવા સમય-દબાણના ફાંદા વિના પરિણામોને ઓવરરાઇડ કરી શકે છે.
પારદર્શિતા: લોકોને જણાવો કે AI ક્યારે સામેલ છે અને તે શા માટે તેના નિર્ણયો પર પહોંચ્યું.
સ્પર્ધાત્મકતા: ઝડપી, કાર્યક્ષમ અપીલ માર્ગો અને ખરાબ ડેટા સુધારવા માટે સ્પષ્ટ રીતો પ્રદાન કરો.
દુરુપયોગ પ્રતિકાર: કૌભાંડો અને દુરુપયોગને રોકવા માટે ઉદ્ભવસ્થાન, દર મર્યાદા અને નિયંત્રણો ઉમેરો.
"શું AI ખૂબ આગળ વધી ગયું છે?"
ખાસ વાત એ છે કે લાઇન-ક્રોસિંગ હંમેશા સ્પષ્ટ હોતું નથી. ક્યારેક તે મોટા અવાજે અને ચમકદાર હોય છે, જેમ કે ડીપફેક કૌભાંડ. ( FTC , FBI ) અન્ય સમયે તે શાંત હોય છે - એક સ્વયંસંચાલિત નિર્ણય જે તમારા જીવનને કોઈ સમજૂતી વિના બાજુ પર ધકેલી દે છે, અને તમને ખ્યાલ પણ નથી આવતો કે તમને "સ્કોર" કરવામાં આવ્યો છે. ( UK ICO , GDPR આર્ટ. 22 )
તો... શું AI ખૂબ આગળ વધી ગયું છે? કેટલીક જગ્યાએ, હા. અન્ય જગ્યાએ, તે પૂરતું આગળ વધી શક્યું નથી - કારણ કે તેનો ઉપયોગ બિનસેક્સી-પરંતુ-આવશ્યક સલામતી રેલ્સ વિના થઈ રહ્યો છે જે મૈત્રીપૂર્ણ UI સાથે રૂલેટ વ્હીલ્સને બદલે સાધનો જેવા વર્તન કરે છે. 🎰🙂 ( NIST AI RMF 1.0 , EU AI એક્ટ )
આ પછી તમને વાંચવા ગમશે તેવા લેખો:
🔗 શા માટે AI સમાજ માટે હાનિકારક હોઈ શકે છે
મુખ્ય સામાજિક જોખમો: પૂર્વગ્રહ, નોકરીઓ, ગોપનીયતા અને સત્તાનું કેન્દ્રીકરણ.
🔗 શું AI પર્યાવરણ માટે ખરાબ છે? છુપાયેલી અસરો
તાલીમ, ડેટા સેન્ટરો અને ઉર્જાનો ઉપયોગ ઉત્સર્જનમાં કેવી રીતે વધારો કરે છે.
🔗 AI સારું છે કે ખરાબ? ફાયદા અને ગેરફાયદા
લાભો, જોખમો અને વાસ્તવિક-વિશ્વના વેપારનું સંતુલિત ઝાંખી.
🔗 AI ને ખરાબ કેમ માનવામાં આવે છે: કાળી બાજુ
દુરુપયોગ, ચાલાકી, સુરક્ષા જોખમો અને નૈતિક ચિંતાઓની શોધ કરે છે.
"શું AI ખૂબ આગળ વધી ગયું છે?" એમ કહેતા લોકો શું કહે છે? 😬
મોટાભાગના લોકો એવું નથી પૂછતા કે AI "સંવેદનશીલ" છે કે "કબજો સંભાળી રહ્યું છે." તેઓ આમાંથી એક તરફ ઈશારો કરી રહ્યા છે:
-
જ્યાં AI નો ઉપયોગ ન થવો જોઈએ ત્યાં તેનો ઉપયોગ થઈ રહ્યો છે. (ખાસ કરીને ઉચ્ચ દાવના નિર્ણયો.) ( EU AI એક્ટ પરિશિષ્ટ III , GDPR કલમ 22 )
-
સંમતિ વિના AI નો ઉપયોગ થઈ રહ્યો છે. (તમારો ડેટા, તમારો અવાજ, તમારો ચહેરો... આશ્ચર્ય.) ( યુકે ICO , GDPR આર્ટ. 5 )
-
ધ્યાન ખેંચવામાં AI ખૂબ જ સારી રીતે કામ કરી રહ્યું છે. (ફીડ્સ + વૈયક્તિકરણ + ઓટોમેશન = સ્ટીકી.) ( OECD AI સિદ્ધાંતો )
-
AI સત્યને વૈકલ્પિક બનાવી રહ્યું છે. (ડીપફેક્સ, નકલી સમીક્ષાઓ, કૃત્રિમ "નિષ્ણાતો".) ( યુરોપિયન કમિશન , FTC , C2PA )
-
AI શક્તિને કેન્દ્રિત કરી રહ્યું છે. (કેટલીક સિસ્ટમો જે દરેક વ્યક્તિ શું જુએ છે અને શું કરી શકે છે તેને આકાર આપે છે.) ( યુકે CMA )
"શું AI ખૂબ આગળ વધી ગયું છે?" નું મૂળ આ જ છે . આ એક ક્ષણની વાત નથી. આમાં પ્રોત્સાહનો, શોર્ટકટ અને "આપણે તેને પછીથી ઠીક કરીશું" જેવા વિચારોનો ઢગલો છે - જે, સ્પષ્ટપણે કહીએ તો, "કોઈને ઈજા થયા પછી આપણે તેને ઠીક કરીશું" માં અનુવાદિત થાય છે. 😑

સત્ય એટલું ગુપ્ત નથી: AI એક ગુણક છે, નૈતિક કારક નથી 🔧✨
AI જાગીને હાનિકારક બનવાનું નક્કી કરતું નથી. લોકો અને સંસ્થાઓ તેનું લક્ષ્ય રાખે છે. પરંતુ તમે તેને જે કંઈ ખવડાવો છો તે તે ગુણાકાર કરે છે:
-
મદદરૂપ ઉદ્દેશ્ય મોટા પાયે મદદરૂપ (અનુવાદ, સુલભતા, સારાંશ, તબીબી પેટર્ન શોધ).
-
ઢાળિયા ઇરાદા મોટા પાયે ઢાળિયા (સ્કેલ પર પૂર્વગ્રહ, ભૂલોનું ઓટોમેશન).
-
ખરાબ ઈરાદો મોટા પાયે ખરાબ (છેતરપિંડી, પજવણી, પ્રચાર, સ્વાંગ).
તે એક નાના બાળકને મેગાફોન આપવા જેવું છે. ક્યારેક બાળક ગાય છે... ક્યારેક બાળક સીધું તમારા આત્મામાં ચીસો પાડે છે. આ એક સંપૂર્ણ રૂપક નથી - થોડું મૂર્ખ - પણ મુદ્દો અહીં આવે છે 😅📢.
રોજિંદા સેટિંગ્સમાં AI નું સારું સંસ્કરણ શું બનાવે છે? ✅🤝
AI નું "સારું સંસ્કરણ" તે કેટલું સ્માર્ટ છે તેના દ્વારા વ્યાખ્યાયિત થતું નથી. તે દબાણ, અનિશ્ચિતતા અને લાલચમાં તે કેટલું સારું વર્તે છે તેના દ્વારા વ્યાખ્યાયિત થાય છે (અને માણસો સસ્તા ઓટોમેશન દ્વારા ખૂબ જ લલચાય છે). ( NIST AI RMF 1.0 , OECD )
જ્યારે કોઈ દાવો કરે છે કે તેમનો AI ઉપયોગ જવાબદાર છે ત્યારે હું આ શોધું છું:
૧) સ્પષ્ટ સીમાઓ
-
સિસ્ટમને શું કરવાની છૂટ છે?
-
શું કરવાની સ્પષ્ટ મનાઈ છે?
-
જ્યારે તે અનિશ્ચિત હોય ત્યારે શું થાય છે?
૨) માનવીય જવાબદારી જે વાસ્તવિક છે, સુશોભન નહીં
માનવ "સમીક્ષા" પરિણામો ફક્ત ત્યારે જ મહત્વપૂર્ણ છે જો:
-
તેઓ સમજે છે કે તેઓ શું સમીક્ષા કરી રહ્યા છે, અને
-
તેઓ વસ્તુઓ ધીમી કરવા બદલ સજા મેળવ્યા વિના તેને ઓવરરાઇડ કરી શકે છે.
૩) યોગ્ય સ્તરે સમજાવવાની ક્ષમતા
દરેકને ગણિતની જરૂર નથી હોતી. લોકોને જરૂર છે:
-
નિર્ણય પાછળના મુખ્ય કારણો,
-
કયા ડેટાનો ઉપયોગ થયો હતો,
-
અપીલ કેવી રીતે કરવી, સુધારવું, અથવા નાપસંદ કરવું. ( યુકે ICO )
૪) માપી શકાય તેવું પ્રદર્શન - નિષ્ફળતા મોડ્સ સહિત
ફક્ત "ચોકસાઈ" જ નહીં, પણ:
-
કોના પર તે નિષ્ફળ જાય છે,
-
કેટલી વાર તે શાંતિથી નિષ્ફળ જાય છે,
-
જ્યારે દુનિયા બદલાય છે ત્યારે શું થાય છે. ( NIST AI RMF 1.0 )
૫) ગોપનીયતા અને સંમતિ જે "સેટિંગ્સમાં દફનાવવામાં આવતી નથી"
જો સંમતિ માટે મેનુઓ દ્વારા ખજાનાની શોધની જરૂર હોય તો... તે સંમતિ નથી. તે વધારાના પગલાંઓ સાથેનો છટકબારી છે 😐🧾. ( GDPR આર્ટ. 5 , UK ICO )
સરખામણી કોષ્ટક: AI ને ખૂબ આગળ વધતા અટકાવવાના વ્યવહારુ રસ્તાઓ 🧰📊
નીચે "ટોચના વિકલ્પો" એ અર્થમાં છે કે તે સામાન્ય રેલિંગ અથવા ઓપરેશનલ ટૂલ્સ છે જે પરિણામોમાં ફેરફાર કરે છે (માત્ર વાઇબ્સ જ નહીં).
| સાધન / વિકલ્પ | પ્રેક્ષક | કિંમત | તે કેમ કામ કરે છે |
|---|---|---|---|
| હ્યુમન-ઇન-ધ-લૂપ સમીક્ષા ( EU AI એક્ટ ) | ઉચ્ચ દાવ લગાવતી ટીમો | ££ (સમય ખર્ચ) | ખરાબ ઓટોમેશનને ધીમું કરે છે. ઉપરાંત, માનવીઓ વિચિત્ર એજ-કેસ જોઈ શકે છે, ક્યારેક.. |
| નિર્ણય અપીલ પ્રક્રિયા ( GDPR કલમ 22 ) | AI નિર્ણયોથી પ્રભાવિત વપરાશકર્તાઓ | મુક્ત-પ્રેમી | યોગ્ય પ્રક્રિયા ઉમેરે છે. લોકો ખોટો ડેટા સુધારી શકે છે - મૂળભૂત લાગે છે કારણ કે તે મૂળભૂત છે |
| ઓડિટ લોગ + ટ્રેસેબિલિટી ( NIST SP 800-53 ) | પાલન, કામગીરી, સુરક્ષા | £-££ | નિષ્ફળતા પછી ખભા ઉંચા કરવાને બદલે, "શું થયું?" નો જવાબ આપવા દો |
| મોડેલ મૂલ્યાંકન + પૂર્વગ્રહ પરીક્ષણ ( NIST AI RMF 1.0 ) | ઉત્પાદન + જોખમ ટીમો | ઘણું બદલાય છે | અનુમાનિત નુકસાન વહેલું પકડી લે છે. સંપૂર્ણ નથી, પણ અનુમાન લગાવવા કરતાં વધુ સારું |
| રેડ-ટીમ પરીક્ષણ ( NIST GenAI પ્રોફાઇલ ) | સુરક્ષા + સલામતી લોકો | £££ | વાસ્તવિક હુમલાખોરો કરે તે પહેલાં દુરુપયોગનું અનુકરણ કરે છે. અપ્રિય, પણ મૂલ્યવાન 😬 |
| ડેટા મિનિમાઇઝેશન ( યુકે ICO ) | બધા, પ્રમાણિકપણે | £ | ઓછો ડેટા = ઓછો ગડબડ. ઓછા ભંગ, ઓછી અણઘડ વાતચીતો |
| સામગ્રી ઉત્પત્તિ સંકેતો ( C2PA ) | પ્લેટફોર્મ, મીડિયા, વપરાશકર્તાઓ | £-££ | "શું કોઈ માણસે આ બનાવ્યું?" તે ચકાસવામાં મદદ કરે છે - ફૂલપ્રૂફ નથી પણ અરાજકતા ઘટાડે છે |
| દર મર્યાદા + ઍક્સેસ નિયંત્રણો ( OWASP ) | AI પ્રદાતાઓ + સાહસો | £ | દુરુપયોગને સ્કેલિંગથી તાત્કાલિક રોકે છે. ખરાબ કલાકારો માટે સ્પીડ બમ્પની જેમ |
હા, ટેબલ થોડું અસમાન છે. બસ આ જ તો જિંદગી છે. 🙂
ઉચ્ચ દાવવાળા નિર્ણયોમાં AI: જ્યારે તે ખૂબ આગળ વધે છે 🏥🏦⚖️
આ તે જગ્યા છે જ્યાં વસ્તુઓ ઝડપથી ગંભીર બને છે.
આરોગ્યસંભાળ , નાણાં , આવાસ , રોજગાર , શિક્ષણ , ઇમિગ્રેશન , ફોજદારી ન્યાયમાં AI - આ એવી સિસ્ટમો છે જ્યાં: ( EU AI એક્ટ એનેક્સ III , FDA )
-
એક ભૂલ કોઈને પૈસા, સ્વતંત્રતા, ગૌરવ અથવા સલામતીનો ભોગ આપી શકે છે,
-
અને અસરગ્રસ્ત વ્યક્તિમાં ઘણીવાર પ્રતિકાર કરવાની મર્યાદિત શક્તિ હોય છે.
મોટું જોખમ એ નથી કે "AI ભૂલો કરે છે." મોટું જોખમ એ છે કે AI ભૂલો નીતિ બની જાય છે . ( NIST AI RMF 1.0 )
અહીં "ખૂબ દૂર" કેવું દેખાય છે?
-
કોઈ સમજૂતી વિના સ્વચાલિત નિર્ણયો: "કમ્પ્યુટર ના કહે છે." ( યુકે ICO )
-
"જોખમ સ્કોર્સ" ને અનુમાનને બદલે તથ્યો તરીકે ગણવામાં આવે છે.
-
મેનેજમેન્ટને ગતિ જોઈતી હોવાથી, જે લોકો પરિણામોને ઓવરરાઇડ કરી શકતા નથી.
-
ડેટા જે અવ્યવસ્થિત, પક્ષપાતી, જૂનો અથવા એકદમ ખોટો છે.
શું બિન-વાટાઘાટપાત્ર હોવું જોઈએ
-
અપીલ કરવાનો અધિકાર (ઝડપી, સમજી શકાય તેવું, ભુલભુલામણી નહીં). ( GDPR આર્ટ. 22 , UK ICO )
-
એ જાણવાનો અધિકાર કે AI સામેલ હતું. ( યુરોપિયન કમિશન )
-
માનવ સમીક્ષા . ( NIST AI RMF 1.0 )
-
ડેટા પર ગુણવત્તા નિયંત્રણ - કારણ કે કચરો અંદર, કચરો બહાર એ હજુ પણ પીડાદાયક રીતે સાચું છે.
જો તમે સ્પષ્ટ રેખા દોરવાનો પ્રયાસ કરી રહ્યા છો, તો અહીં એક છે:
જો કોઈ AI સિસ્ટમ કોઈના જીવનમાં ભૌતિક રીતે પરિવર્તન લાવી શકે છે, તો તેને તે જ ગંભીરતાની જરૂર છે જે આપણે અન્ય પ્રકારની સત્તા પાસેથી અપેક્ષા રાખીએ છીએ. જે લોકોએ સાઇન અપ કર્યું નથી તેમના પર કોઈ "બીટા પરીક્ષણ" નહીં. 🚫
ડીપફેક્સ, કૌભાંડો અને "મને મારી આંખો પર ભરોસો છે" નું ધીમું મૃત્યુ 👀🧨
આ એ ભાગ છે જે રોજિંદા જીવનને લપસણો અનુભવ કરાવે છે.
જ્યારે AI જનરેટ કરી શકે છે:
-
એક વૉઇસ મેસેજ જે તમારા પરિવારના સભ્ય જેવો લાગે, ( FTC , FBI )
-
એક જાહેર વ્યક્તિ કંઈક "કહેતી" હોય તેવો વિડિઓ,
-
નકલી સમીક્ષાઓનો પૂર જે પૂરતા પ્રમાણમાં અધિકૃત લાગે છે, ( FTC )
-
નકલી નોકરીનો ઇતિહાસ અને નકલી મિત્રો ધરાવતી નકલી લિંક્ડઇન પ્રોફાઇલ..
…તે ફક્ત કૌભાંડોને જ પ્રોત્સાહન આપતું નથી. તે સામાજિક ગુંદરને નબળો પાડે છે જે અજાણ્યાઓને સંકલન કરવા દે છે. અને સમાજ અજાણ્યાઓના સંકલન પર ચાલે છે. 😵💫
"ખૂબ દૂર" એ ફક્ત નકલી સામગ્રી નથી
તે અસમપ્રમાણતા :
-
જૂઠાણું પેદા કરવું સસ્તું છે.
-
સત્ય ચકાસવું મોંઘું અને ધીમું છે.
-
અને મોટાભાગના લોકો વ્યસ્ત, થાકેલા અને દોડાદોડ કરતા હોય છે.
શું મદદ કરે છે (થોડું)
-
મીડિયા માટે પ્રોવેનન્સ માર્કર્સ. ( C2PA )
-
વાયરલતા માટે ઘર્ષણ - તાત્કાલિક માસ-શેરિંગ ધીમું કરવું.
-
જ્યાં મહત્વનું હોય ત્યાં વધુ સારી ઓળખ ચકાસણી (નાણાકીય, સરકારી સેવાઓ).
-
વ્યક્તિઓ માટે મૂળભૂત "બેન્ડની બહારની આદતો ચકાસો" (કૉલ બેક કરો, કોડ વર્ડનો ઉપયોગ કરો, બીજી ચેનલ દ્વારા પુષ્ટિ કરો). ( FTC )
ગ્લેમરસ નથી. પણ સીટબેલ્ટ પણ નથી, અને મને વ્યક્તિગત રીતે તે ખૂબ જ ગમે છે. 🚗
દેખરેખનો ધસારો: જ્યારે AI શાંતિથી બધું સેન્સરમાં ફેરવી નાખે છે 📷🫥
આ ડીપફેકની જેમ ફૂટતું નથી. તે ફક્ત ફેલાય છે.
AI આને સરળ બનાવે છે:
-
ભીડમાં ચહેરા ઓળખો, ( EU AI એક્ટ , NIST FRVT )
-
ટ્રેક મૂવમેન્ટ પેટર્ન,
-
વિડિઓમાંથી લાગણીઓનું અનુમાન લગાવો (ઘણી વાર નબળી રીતે, પરંતુ આત્મવિશ્વાસથી), ( બેરેટ એટ અલ., 2019 , EU AI એક્ટ )
-
વર્તન... અથવા તમારા પડોશના વાતાવરણના આધારે "જોખમ" ની આગાહી કરો.
અને જ્યારે તે અચોક્કસ હોય ત્યારે પણ તે હાનિકારક હોઈ શકે છે કારણ કે તે હસ્તક્ષેપને યોગ્ય ઠેરવી શકે છે. ખોટી આગાહી હજુ પણ વાસ્તવિક પરિણામો લાવી શકે છે.
અસ્વસ્થતાનો ભાગ
AI-સંચાલિત દેખરેખ ઘણીવાર સલામતીની વાર્તામાં લપેટાયેલી હોય છે:
-
"તે છેતરપિંડી અટકાવવા માટે છે."
-
"તે સુરક્ષા માટે છે."
-
"તે વપરાશકર્તા અનુભવ માટે છે."
ક્યારેક તે સાચું હોય છે. ક્યારેક તે એવી ઇમારતો બનાવવા માટે એક અનુકૂળ બહાનું પણ બની જાય છે જેને પાછળથી તોડી પાડવી ખૂબ જ મુશ્કેલ હોય છે. જેમ કે તમારા પોતાના ઘરમાં એક-માર્ગી દરવાજો સ્થાપિત કરવો કારણ કે તે સમયે તે કાર્યક્ષમ લાગતું હતું. ફરીથી, એક સંપૂર્ણ રૂપક નથી - થોડું હાસ્યાસ્પદ - પણ તમને તે લાગે છે. 🚪😅
અહીં "સારું" કેવું દેખાય છે?
-
રીટેન્શન અને શેરિંગ પર કડક મર્યાદાઓ.
-
નાપસંદગી દૂર કરો.
-
ઉપયોગના કિસ્સાઓ સાંકડા.
-
સ્વતંત્ર દેખરેખ.
-
સજા અથવા ગેટકીપિંગ માટે કોઈ "લાગણી શોધ" નો ઉપયોગ થતો નથી. કૃપા કરીને. 🙃 ( EU AI એક્ટ )
કાર્ય, સર્જનાત્મકતા અને શાંત ડેસ્કિલિંગ સમસ્યા 🧑💻🎨
આ તે જગ્યા છે જ્યાં ચર્ચા વ્યક્તિગત બની જાય છે કારણ કે તે ઓળખને સ્પર્શે છે.
AI લોકોને વધુ ઉત્પાદક બનાવી શકે છે. તે લોકોને બદલી શકાય તેવું પણ અનુભવી શકે છે. બંને એક જ સમયે, એક જ અઠવાડિયામાં સાચા હોઈ શકે છે. ( OECD , WEF )
જ્યાં તે ખરેખર મદદરૂપ થાય છે
-
માનવીઓ વિચાર પર ધ્યાન કેન્દ્રિત કરી શકે તે માટે નિયમિત લખાણ તૈયાર કરવું.
-
પુનરાવર્તિત પેટર્ન માટે કોડિંગ સહાય.
-
સુલભતા સાધનો (કેપ્શનિંગ, સારાંશ, અનુવાદ).
-
જ્યારે તમે અટવાઈ જાઓ ત્યારે વિચાર-વિમર્શ.
જ્યાં તે ખૂબ દૂર જાય છે
-
સંક્રમણ યોજનાઓ વિના ભૂમિકાઓ બદલવી.
-
AI નો ઉપયોગ કરીને આઉટપુટ ઘટાડવો અને વેતન ઘટાડવું.
-
સર્જનાત્મક કાર્યને અનંત મફત તાલીમ ડેટા તરીકે ગણવું, પછી ખભા ઉંચા કરવા. ( યુએસ કોપીરાઇટ ઓફિસ , યુકે GOV.UK )
-
જુનિયર ભૂમિકાઓ અદૃશ્ય થઈ જાય છે - જે કાર્યક્ષમ લાગે છે જ્યાં સુધી તમને ખ્યાલ ન આવે કે તમે ભવિષ્યના નિષ્ણાતોને જે સીડી ચઢવાની જરૂર છે તે બાળી નાખી છે.
ડિસ્કિલિંગ સૂક્ષ્મ છે. તમે તેને રોજબરોજ ધ્યાનમાં લેતા નથી. પછી એક દિવસ તમને ખ્યાલ આવે છે કે ટીમમાં કોઈને યાદ નથી કે સહાયક વિના વસ્તુ કેવી રીતે કાર્ય કરે છે. અને જો સહાયક ખોટો હોય, તો તમે બધા એકસાથે આત્મવિશ્વાસથી ખોટા છો… જે એક પ્રકારનું દુઃસ્વપ્ન છે. 😬
પાવર એકાગ્રતા: ડિફોલ્ટ કોણ સેટ કરી શકે છે? 🏢⚡
ભલે AI "તટસ્થ" હોય (તે નથી), જે કોઈ તેને નિયંત્રિત કરે છે તે આકાર આપી શકે છે:
-
કઈ માહિતી સરળતાથી મળી શકે છે,
-
શું બઢતી મળે છે અથવા દફનાવવામાં આવે છે,
-
કઈ ભાષામાં બોલવાની મંજૂરી છે,
-
કયા વર્તનને પ્રોત્સાહન આપવામાં આવે છે.
અને કારણ કે AI સિસ્ટમ્સ બનાવવી અને ચલાવવી મોંઘી હોઈ શકે છે, શક્તિ કેન્દ્રિત થવાનું વલણ ધરાવે છે. તે કાવતરું નથી. તે ટેક હૂડી સાથેનું અર્થશાસ્ત્ર છે. ( યુકે CMA )
અહીં "બહુ દૂર" ક્ષણ છે
જ્યારે ડિફોલ્ટ્સ અદ્રશ્ય કાયદો બની જાય છે:
-
તમને ખબર નથી કે શું ફિલ્ટર થઈ રહ્યું છે,
-
તમે તર્કનું નિરીક્ષણ કરી શકતા નથી,
-
અને તમે કાર્ય, સમુદાય અથવા મૂળભૂત સેવાઓની ઍક્સેસ ગુમાવ્યા વિના વાસ્તવિક રીતે નાપસંદ કરી શકતા નથી.
એક સ્વસ્થ ઇકોસિસ્ટમ માટે સ્પર્ધા, પારદર્શિતા અને વાસ્તવિક વપરાશકર્તા પસંદગીની જરૂર હોય છે. નહીં તો તમે મૂળભૂત રીતે વાસ્તવિકતાને ભાડે લઈ રહ્યા છો. 😵♂️
એક વ્યવહારુ ચેકલિસ્ટ: કેવી રીતે જાણવું કે AI તમારી દુનિયામાં ખૂબ આગળ વધી રહ્યું છે 🧾🔍
અહીં એક આંતરડાની તપાસ યાદી છે જેનો હું ઉપયોગ કરું છું (અને હા, તે અપૂર્ણ છે):
જો તમે એક વ્યક્તિ છો
-
હું AI સાથે ક્યારે વાતચીત કરી રહ્યો છું તે હું જાણી શકું છું. ( યુરોપિયન કમિશન )
-
આ સિસ્ટમ મને ઓવરશેર કરવા માટે પ્રેરે છે.
-
જો આઉટપુટ ખોટું હોય તો મને તેની સાથે વિશ્વાસપાત્ર રીતે વ્યવહાર કરવામાં કોઈ વાંધો નથી.
-
જો આનો ઉપયોગ કરીને મારી સાથે છેતરપિંડી થાય, તો પ્લેટફોર્મ મને મદદ કરશે... નહીં તો તે મને ખભા ઉચકશે.
જો તમે કોઈ વ્યવસાય અથવા ટીમ છો
-
આપણે AI નો ઉપયોગ એટલા માટે કરી રહ્યા છીએ કારણ કે તે મૂલ્યવાન છે, અથવા કારણ કે તે ટ્રેન્ડી છે અને મેનેજમેન્ટ બેચેન છે.
-
આપણે જાણીએ છીએ કે સિસ્ટમ કયા ડેટાને સ્પર્શે છે.
-
અસરગ્રસ્ત વપરાશકર્તા પરિણામો સામે અપીલ કરી શકે છે. ( યુકે ICO )
-
માનવોને મોડેલને ઓવરરાઇડ કરવાની સત્તા આપવામાં આવી છે.
-
અમારી પાસે AI નિષ્ફળતાઓ માટે ઘટના પ્રતિભાવ યોજનાઓ છે.
-
અમે ડ્રિફ્ટ, દુરુપયોગ અને અસામાન્ય એજ કેસોનું નિરીક્ષણ કરી રહ્યા છીએ.
જો તમે આમાંના ઘણા બધાનો જવાબ "ના" માં આપો છો, તો તેનો અર્થ એ નથી કે તમે દુષ્ટ છો. તેનો અર્થ એ છે કે તમે "અમે તેને મોકલ્યું અને આશા રાખી." ની સામાન્ય માનવીય સ્થિતિમાં છો. પરંતુ દુર્ભાગ્યે, આશા રાખવી એ કોઈ વ્યૂહરચના નથી. 😅
સમાપન નોંધો 🧠✅
તો... શું AI ખૂબ આગળ વધી ગયું છે?
તે ખૂબ આગળ વધી ગયું છે જ્યાં તેને જવાબદારી વિના ઉપયોગમાં લેવામાં આવે છે , ખાસ કરીને ઉચ્ચ-દાવના નિર્ણયો, સામૂહિક સમજાવટ અને દેખરેખમાં. તે ખૂબ આગળ વધી ગયું છે જ્યાં તે વિશ્વાસને નષ્ટ કરે છે - કારણ કે એકવાર વિશ્વાસ તૂટે છે, સામાજિક રીતે કહીએ તો, બધું વધુ ખર્ચાળ અને વધુ પ્રતિકૂળ બની જાય છે. ( NIST AI RMF 1.0 , EU AI એક્ટ )
પરંતુ AI સ્વાભાવિક રીતે જ નકામું કે સંપૂર્ણ નથી. તે એક શક્તિશાળી ગુણક છે. પ્રશ્ન એ છે કે શું આપણે ક્ષમતાઓ જેટલી આક્રમક રીતે બનાવીએ છીએ તેટલી જ આક્રમક રીતે રેલિંગ બનાવીએ છીએ.
ઝડપી રીકેપ:
-
એક સાધન તરીકે AI સારું છે.
-
એક બિનજવાબદાર સત્તા તરીકે તે ખતરનાક છે.
-
જો કોઈ અપીલ ન કરી શકે, સમજી ન શકે અથવા નાપસંદ ન કરી શકે - તો ત્યાંથી "ખૂબ દૂર" શરૂ થાય છે. 🚦 ( GDPR આર્ટ. 22 , UK ICO )
વારંવાર પૂછાતા પ્રશ્નો
શું રોજિંદા જીવનમાં AI ખૂબ આગળ વધી ગયું છે?
ઘણી જગ્યાએ, AI ખૂબ આગળ વધી ગયું છે કારણ કે તે સ્પષ્ટ સીમાઓ અથવા જવાબદારી વિના નિર્ણયો અને ક્રિયાપ્રતિક્રિયાઓમાં ફસાઈ ગયું છે. સમસ્યા ભાગ્યે જ "AI અસ્તિત્વમાં છે" ની છે; તે AI ને શાંતિથી ભરતી, આરોગ્યસંભાળ, ગ્રાહક સેવા અને ફીડ્સમાં પાતળી દેખરેખ સાથે જોડવામાં આવી રહ્યું છે. જ્યારે લોકો કહી શકતા નથી કે તે AI છે, પરિણામોનો વિરોધ કરી શકતા નથી, અથવા નાપસંદ કરી શકતા નથી, ત્યારે તે એક સાધન જેવું લાગવાનું બંધ કરે છે અને એક સિસ્ટમ જેવું લાગવાનું શરૂ કરે છે.
ઊંચા દાવવાળા નિર્ણયોમાં "AI ખૂબ આગળ વધી રહ્યું છે" કેવું દેખાય છે?
એવું લાગે છે કે મજબૂત રેલિંગ વિના આરોગ્યસંભાળ, નાણાં, આવાસ, રોજગાર, શિક્ષણ, ઇમિગ્રેશન અથવા ફોજદારી ન્યાયમાં AI નો ઉપયોગ થઈ રહ્યો છે. મુખ્ય મુદ્દો એ નથી કે મોડેલો ભૂલો કરે છે; તે એ છે કે તે ભૂલો નીતિમાં કઠણ થઈ જાય છે અને પડકારવા મુશ્કેલ બની જાય છે. "કમ્પ્યુટર ના કહે છે" ના નિર્ણયો પાતળા સમજૂતીઓ અને કોઈ અર્થપૂર્ણ અપીલ વિના નુકસાન ઝડપથી વધે છે.
ઓટોમેટેડ નિર્ણય મને અસર કરી રહ્યો છે કે નહીં તે હું કેવી રીતે જાણી શકું અને હું શું કરી શકું?
એક સામાન્ય સંકેત એ અચાનક પરિણામ છે જેના માટે તમે જવાબદાર નથી: કોઈ સ્પષ્ટ કારણ વિના અસ્વીકાર, પ્રતિબંધ, અથવા "જોખમ સ્કોર" વાઇબ. ઘણી સિસ્ટમોએ ક્યારે AI એ મહત્વપૂર્ણ ભૂમિકા ભજવી હતી તે જાહેર કરવું જોઈએ, અને તમે નિર્ણય પાછળના મુખ્ય કારણો અને તેની અપીલ કરવાના પગલાંની વિનંતી કરી શકશો. વ્યવહારમાં, માનવ સમીક્ષા માટે પૂછો, કોઈપણ ખોટો ડેટા સુધારો, અને સીધા નાપસંદગીના માર્ગ માટે દબાણ કરો.
શું AI ગોપનીયતા, સંમતિ અને ડેટાના ઉપયોગની બાબતમાં ખૂબ આગળ વધી ગયું છે?
ઘણીવાર એવું બને છે જ્યારે સંમતિ એક શોધખોળ બની જાય છે અને ડેટા સંગ્રહ "ફક્ત કિસ્સામાં" વિસ્તરે છે. લેખનો મુખ્ય મુદ્દો એ છે કે ગોપનીયતા અને સંમતિ જો સેટિંગ્સમાં દફનાવવામાં આવે અથવા અસ્પષ્ટ શબ્દો દ્વારા દબાણ કરવામાં આવે તો તે વધુ વજન રાખતા નથી. એક સ્વસ્થ અભિગમ એ ડેટા ન્યૂનતમકરણ છે: ઓછો એકત્રિત કરો, ઓછો રાખો અને પસંદગીઓને સ્પષ્ટ બનાવો જેથી લોકો પછીથી આશ્ચર્ય ન પામે.
ડીપફેક્સ અને એઆઈ કૌભાંડો ઓનલાઈન "ટ્રસ્ટ" નો અર્થ કેવી રીતે બદલી નાખે છે?
તેઓ નકલી અવાજો, વિડિઓઝ, સમીક્ષાઓ અને ઓળખ બનાવવાનો ખર્ચ ઘટાડીને સત્યને વૈકલ્પિક લાગે છે. અસમપ્રમાણતા એ સમસ્યા છે: જૂઠાણું ઉત્પન્ન કરવું સસ્તું છે, જ્યારે સત્ય ચકાસવું ધીમું અને કંટાળાજનક છે. વ્યવહારુ બચાવમાં મીડિયા માટે ઉત્પત્તિ સંકેતો, વાયરલ શેરિંગને ધીમું કરવું, જ્યાં તે મહત્વનું હોય ત્યાં મજબૂત ઓળખ તપાસ અને પાછા કૉલ કરવા અથવા શેર કરેલા કોડ શબ્દનો ઉપયોગ કરવા જેવી "બેન્ડમાંથી બહાર ચકાસો" ટેવોનો સમાવેશ થાય છે.
AI ને ખૂબ આગળ વધતા અટકાવવા માટે સૌથી વ્યવહારુ રેલિંગ કયા છે?
પરિણામોને બદલી નાખતી ગાર્ડરેલ્સમાં ઉચ્ચ-દાવવાળા કોલ્સ માટે વાસ્તવિક માનવ-ઇન-ધ-લૂપ સમીક્ષા, સ્પષ્ટ અપીલ પ્રક્રિયાઓ અને નિષ્ફળતાઓ પછી "શું થયું?" નો જવાબ આપી શકે તેવા ઓડિટ લોગનો સમાવેશ થાય છે. મોડેલ મૂલ્યાંકન અને પૂર્વગ્રહ પરીક્ષણ અગાઉથી અનુમાનિત નુકસાનને પકડી શકે છે, જ્યારે રેડ-ટીમ પરીક્ષણ હુમલાખોરો કરે તે પહેલાં દુરુપયોગનું અનુકરણ કરે છે. દર મર્યાદા અને ઍક્સેસ નિયંત્રણો દુરુપયોગને તાત્કાલિક સ્કેલિંગથી અટકાવવામાં મદદ કરે છે, અને ડેટા ન્યૂનતમકરણ સમગ્ર બોર્ડમાં જોખમ ઘટાડે છે.
એઆઈ-સંચાલિત સર્વેલન્સ ક્યારે મર્યાદા પાર કરે છે?
જ્યારે બધું જ ડિફોલ્ટ રૂપે સેન્સરમાં ફેરવાઈ જાય છે ત્યારે તે મર્યાદા પાર કરે છે: ભીડમાં ચહેરો ઓળખ, હલનચલન-પેટર્ન ટ્રેકિંગ, અથવા સજા અથવા ગેટકીપિંગ માટે ઉપયોગમાં લેવાતી આત્મવિશ્વાસપૂર્ણ "લાગણી શોધ". જો તેઓ હસ્તક્ષેપો અથવા સેવાઓનો ઇનકાર યોગ્ય ઠેરવે તો અચોક્કસ સિસ્ટમો પણ ગંભીર નુકસાન પહોંચાડી શકે છે. સારી પ્રથા સાંકડા ઉપયોગના કિસ્સાઓ, કડક રીટેન્શન મર્યાદાઓ, અર્થપૂર્ણ ઓપ્ટ-આઉટ્સ, સ્વતંત્ર દેખરેખ અને અસ્થિર લાગણી-આધારિત ચુકાદાઓ માટે મક્કમ "ના" જેવી લાગે છે.
શું AI લોકોને વધુ ઉત્પાદક બનાવી રહ્યું છે - કે પછી શાંતિથી કામને દૂર કરી રહ્યું છે?
બંને એક જ સમયે સાચા હોઈ શકે છે, અને તે તણાવ એ મુદ્દો છે. AI નિયમિત ડ્રાફ્ટિંગ, પુનરાવર્તિત કોડિંગ પેટર્ન અને સુલભતામાં મદદ કરી શકે છે, જે માનવોને ઉચ્ચ-સ્તરીય વિચારસરણી પર ધ્યાન કેન્દ્રિત કરવા માટે મુક્ત કરે છે. જ્યારે તે સંક્રમણ યોજનાઓ વિના ભૂમિકાઓને બદલે છે, વેતનને સંકોચાય છે, સર્જનાત્મક કાર્યને મફત તાલીમ ડેટાની જેમ વર્તે છે, અથવા ભવિષ્યની કુશળતા બનાવતી જુનિયર ભૂમિકાઓને દૂર કરે છે ત્યારે તે ખૂબ આગળ વધે છે. જ્યાં સુધી ટીમો સહાયક વિના કાર્ય કરી શકતી નથી ત્યાં સુધી ડિસ્કિલિંગ સૂક્ષ્મ રહે છે.
સંદર્ભ
-
નેશનલ ઇન્સ્ટિટ્યૂટ ઓફ સ્ટાન્ડર્ડ્સ એન્ડ ટેકનોલોજી (NIST) - AI રિસ્ક મેનેજમેન્ટ ફ્રેમવર્ક (AI RMF 1.0) - nist.gov
-
યુરોપિયન યુનિયન - EU AI એક્ટ (નિયમન (EU) 2024/1689) - સત્તાવાર જર્નલ (અંગ્રેજી) - europa.eu
-
યુરોપિયન કમિશન - AI માટે નિયમનકારી માળખું (EU AI એક્ટ પોલિસી પેજ) - europa.eu
-
EU AI એક્ટ સર્વિસ ડેસ્ક - પરિશિષ્ટ III (ઉચ્ચ-જોખમવાળી AI સિસ્ટમ્સ) - europa.eu
-
યુરોપિયન યુનિયન - EU માં વિશ્વસનીય કૃત્રિમ બુદ્ધિ માટેના નિયમો (EU AI એક્ટ સારાંશ) - europa.eu
-
યુકે ઇન્ફર્મેશન કમિશનર ઓફિસ (ICO) - ઓટોમેટેડ વ્યક્તિગત નિર્ણય લેવા અને પ્રોફાઇલિંગ શું છે? - ico.org.uk
-
યુકે ઇન્ફર્મેશન કમિશનર ઓફિસ (ICO) - યુકે GDPR ઓટોમેટેડ નિર્ણય લેવા અને પ્રોફાઇલિંગ વિશે શું કહે છે? - ico.org.uk
-
યુકે ઇન્ફર્મેશન કમિશનર ઓફિસ (ICO) - ઓટોમેટેડ નિર્ણય-નિર્માણ અને પ્રોફાઇલિંગ (માર્ગદર્શન કેન્દ્ર) - ico.org.uk
-
યુકે ઇન્ફર્મેશન કમિશનર ઓફિસ (ICO) - ડેટા મિનિમાઇઝેશન (યુકે GDPR સિદ્ધાંતો માર્ગદર્શન) - ico.org.uk
-
GDPR-info.eu - કલમ 22 GDPR - gdpr-info.eu
-
GDPR-info.eu - કલમ 5 GDPR - gdpr-info.eu
-
યુએસ ફેડરલ ટ્રેડ કમિશન (FTC) - સ્કેમર્સ તેમની કૌટુંબિક કટોકટી યોજનાઓને વધારવા માટે AI નો ઉપયોગ કરે છે - ftc.gov
-
યુએસ ફેડરલ ટ્રેડ કમિશન (FTC) - કૌભાંડીઓ તમારા પૈસા ચોરી કરવા માટે નકલી કટોકટીનો ઉપયોગ કરે છે - ftc.gov
-
યુએસ ફેડરલ ટ્રેડ કમિશન (FTC) - નકલી સમીક્ષાઓ અને પ્રશંસાપત્રો પર પ્રતિબંધ મૂકવાનો અંતિમ નિયમ (પ્રેસ રિલીઝ) - ftc.gov
-
ફેડરલ બ્યુરો ઓફ ઇન્વેસ્ટિગેશન (FBI) - FBI એ કૃત્રિમ બુદ્ધિમત્તાનો ઉપયોગ કરીને સાયબર ગુનેગારોના વધતા જોખમ અંગે ચેતવણી આપી છે - fbi.gov
-
આર્થિક સહકાર અને વિકાસ સંગઠન (OECD) - OECD AI સિદ્ધાંતો - oecd.ai
-
OECD - કૃત્રિમ બુદ્ધિ પરિષદની ભલામણ (OECD/LEGAL/0449) - oecd.org
-
યુરોપિયન કમિશન - પારદર્શક AI સિસ્ટમ્સ માટે માર્ગદર્શિકા અને આચારસંહિતા (FAQs) - europa.eu
-
કન્ટેન્ટ પ્રોવેનન્સ એન્ડ ઓથેન્ટિકિટી માટે ગઠબંધન (C2PA) - સ્પષ્ટીકરણો v2.3 - c2pa.org
-
યુકે કોમ્પિટિશન એન્ડ માર્કેટ્સ ઓથોરિટી (CMA) - AI ફાઉન્ડેશન મોડેલ્સ: પ્રારંભિક અહેવાલ - gov.uk
-
યુએસ ફૂડ એન્ડ ડ્રગ એડમિનિસ્ટ્રેશન (FDA) - આર્ટિફિશિયલ ઇન્ટેલિજન્સ-સક્ષમ તબીબી ઉપકરણો - fda.gov
-
NIST - માહિતી પ્રણાલીઓ અને સંગઠનો માટે સુરક્ષા અને ગોપનીયતા નિયંત્રણો (SP 800-53 રેવ. 5) - nist.gov
-
NIST - જનરેટિવ AI પ્રોફાઇલ (NIST.AI.600-1, ipd) - nist.gov
-
ઓપન વર્લ્ડવાઇડ એપ્લિકેશન સિક્યુરિટી પ્રોજેક્ટ (OWASP) - અપ્રતિબંધિત સંસાધન વપરાશ (API સિક્યુરિટી ટોપ 10, 2023) - owasp.org
-
NIST - ફેસ રેકગ્નિશન વેન્ડર ટેસ્ટ (FRVT) ડેમોગ્રાફિક્સ - nist.gov
-
બેરેટ અને અન્ય (2019) - લેખ (PMC) - nih.gov
-
OECD - કાર્યસ્થળમાં AI નો ઉપયોગ (PDF) - oecd.org
-
વર્લ્ડ ઇકોનોમિક ફોરમ (WEF) - ધ ફ્યુચર ઓફ જોબ્સ રિપોર્ટ 2025 - ડાયજેસ્ટ - weforum.org
-
યુએસ કોપીરાઇટ ઓફિસ - કોપીરાઇટ અને આર્ટિફિશિયલ ઇન્ટેલિજન્સ, ભાગ 3: જનરેટિવ એઆઈ ટ્રેનિંગ રિપોર્ટ (પ્રી-પ્રકાશન વર્ઝન) (પીડીએફ) - copyright.gov
-
યુકે સરકાર (GOV.UK) - કોપીરાઇટ અને કૃત્રિમ બુદ્ધિ (પરામર્શ) - gov.uk