શું AI ખૂબ આગળ વધી ગયું છે?

શું AI ખૂબ આગળ વધી ગયું છે?

ટૂંકો જવાબ: જ્યારે AI ને ઉચ્ચ-દાવના નિર્ણયો, દેખરેખ અથવા સમજાવટમાં મજબૂત મર્યાદાઓ, જાણકાર સંમતિ અને અપીલ કરવાનો સાચો અધિકાર વિના ઉપયોગમાં લેવામાં આવે છે ત્યારે તે ખૂબ આગળ નીકળી ગયું છે. જ્યારે ડીપફેક્સ અને સ્કેલેબલ કૌભાંડો વિશ્વાસને જુગાર જેવો બનાવે છે ત્યારે તે ફરીથી સીમા પાર કરે છે. જો લોકો કહી શકતા નથી કે AI એ ભૂમિકા ભજવી છે, સમજી શકતા નથી કે નિર્ણય શા માટે આ રીતે આવ્યો, અથવા નાપસંદ કરી શકતા નથી, તો તે પહેલાથી જ ખૂબ દૂર છે.

મુખ્ય બાબતો:

સીમાઓ: સિસ્ટમ શું કરી શકતી નથી તે વ્યાખ્યાયિત કરો, ખાસ કરીને જ્યારે અનિશ્ચિતતા વધારે હોય.

જવાબદારી: ખાતરી કરો કે માણસો દંડ અથવા સમય-દબાણના ફાંદા વિના પરિણામોને ઓવરરાઇડ કરી શકે છે.

પારદર્શિતા: લોકોને જણાવો કે AI ક્યારે સામેલ છે અને તે શા માટે તેના નિર્ણયો પર પહોંચ્યું.

સ્પર્ધાત્મકતા: ઝડપી, કાર્યક્ષમ અપીલ માર્ગો અને ખરાબ ડેટા સુધારવા માટે સ્પષ્ટ રીતો પ્રદાન કરો.

દુરુપયોગ પ્રતિકાર: કૌભાંડો અને દુરુપયોગને રોકવા માટે ઉદ્ભવસ્થાન, દર મર્યાદા અને નિયંત્રણો ઉમેરો.

"શું AI ખૂબ આગળ વધી ગયું છે?"

ખાસ વાત એ છે કે લાઇન-ક્રોસિંગ હંમેશા સ્પષ્ટ હોતું નથી. ક્યારેક તે મોટા અવાજે અને ચમકદાર હોય છે, જેમ કે ડીપફેક કૌભાંડ. ( FTC , FBI ) ​​અન્ય સમયે તે શાંત હોય છે - એક સ્વયંસંચાલિત નિર્ણય જે તમારા જીવનને કોઈ સમજૂતી વિના બાજુ પર ધકેલી દે છે, અને તમને ખ્યાલ પણ નથી આવતો કે તમને "સ્કોર" કરવામાં આવ્યો છે. ( UK ICO , GDPR આર્ટ. 22 )

તો... શું AI ખૂબ આગળ વધી ગયું છે? કેટલીક જગ્યાએ, હા. અન્ય જગ્યાએ, તે પૂરતું આગળ વધી શક્યું નથી - કારણ કે તેનો ઉપયોગ બિનસેક્સી-પરંતુ-આવશ્યક સલામતી રેલ્સ વિના થઈ રહ્યો છે જે મૈત્રીપૂર્ણ UI સાથે રૂલેટ વ્હીલ્સને બદલે સાધનો જેવા વર્તન કરે છે. 🎰🙂 ( NIST AI RMF 1.0 , EU AI એક્ટ )

આ પછી તમને વાંચવા ગમશે તેવા લેખો:

🔗 શા માટે AI સમાજ માટે હાનિકારક હોઈ શકે છે
મુખ્ય સામાજિક જોખમો: પૂર્વગ્રહ, નોકરીઓ, ગોપનીયતા અને સત્તાનું કેન્દ્રીકરણ.

🔗 શું AI પર્યાવરણ માટે ખરાબ છે? છુપાયેલી અસરો
તાલીમ, ડેટા સેન્ટરો અને ઉર્જાનો ઉપયોગ ઉત્સર્જનમાં કેવી રીતે વધારો કરે છે.

🔗 AI સારું છે કે ખરાબ? ફાયદા અને ગેરફાયદા
લાભો, જોખમો અને વાસ્તવિક-વિશ્વના વેપારનું સંતુલિત ઝાંખી.

🔗 AI ને ખરાબ કેમ માનવામાં આવે છે: કાળી બાજુ
દુરુપયોગ, ચાલાકી, સુરક્ષા જોખમો અને નૈતિક ચિંતાઓની શોધ કરે છે.


"શું AI ખૂબ આગળ વધી ગયું છે?" એમ કહેતા લોકો શું કહે છે? 😬

મોટાભાગના લોકો એવું નથી પૂછતા કે AI "સંવેદનશીલ" છે કે "કબજો સંભાળી રહ્યું છે." તેઓ આમાંથી એક તરફ ઈશારો કરી રહ્યા છે:

  • જ્યાં AI નો ઉપયોગ ન થવો જોઈએ ત્યાં તેનો ઉપયોગ થઈ રહ્યો છે. (ખાસ કરીને ઉચ્ચ દાવના નિર્ણયો.) ( EU AI એક્ટ પરિશિષ્ટ III , GDPR કલમ 22 )

  • સંમતિ વિના AI નો ઉપયોગ થઈ રહ્યો છે. (તમારો ડેટા, તમારો અવાજ, તમારો ચહેરો... આશ્ચર્ય.) ( યુકે ICO , GDPR આર્ટ. 5 )

  • ધ્યાન ખેંચવામાં AI ખૂબ જ સારી રીતે કામ કરી રહ્યું છે. (ફીડ્સ + વૈયક્તિકરણ + ઓટોમેશન = સ્ટીકી.) ( OECD AI સિદ્ધાંતો )

  • AI સત્યને વૈકલ્પિક બનાવી રહ્યું છે. (ડીપફેક્સ, નકલી સમીક્ષાઓ, કૃત્રિમ "નિષ્ણાતો".) ( યુરોપિયન કમિશન , FTC , C2PA )

  • AI શક્તિને કેન્દ્રિત કરી રહ્યું છે. (કેટલીક સિસ્ટમો જે દરેક વ્યક્તિ શું જુએ છે અને શું કરી શકે છે તેને આકાર આપે છે.) ( યુકે CMA )

"શું AI ખૂબ આગળ વધી ગયું છે?" નું મૂળ આ જ છે . આ એક ક્ષણની વાત નથી. આમાં પ્રોત્સાહનો, શોર્ટકટ અને "આપણે તેને પછીથી ઠીક કરીશું" જેવા વિચારોનો ઢગલો છે - જે, સ્પષ્ટપણે કહીએ તો, "કોઈને ઈજા થયા પછી આપણે તેને ઠીક કરીશું" માં અનુવાદિત થાય છે. 😑

શું AI ખૂબ આગળ વધી ગયું છે ઇન્ફોગ્રાફિક?

સત્ય એટલું ગુપ્ત નથી: AI એક ગુણક છે, નૈતિક કારક નથી 🔧✨

AI જાગીને હાનિકારક બનવાનું નક્કી કરતું નથી. લોકો અને સંસ્થાઓ તેનું લક્ષ્ય રાખે છે. પરંતુ તમે તેને જે કંઈ ખવડાવો છો તે તે ગુણાકાર કરે છે:

  • મદદરૂપ ઉદ્દેશ્ય મોટા પાયે મદદરૂપ (અનુવાદ, સુલભતા, સારાંશ, તબીબી પેટર્ન શોધ).

  • ઢાળિયા ઇરાદા મોટા પાયે ઢાળિયા (સ્કેલ પર પૂર્વગ્રહ, ભૂલોનું ઓટોમેશન).

  • ખરાબ ઈરાદો મોટા પાયે ખરાબ (છેતરપિંડી, પજવણી, પ્રચાર, સ્વાંગ).

તે એક નાના બાળકને મેગાફોન આપવા જેવું છે. ક્યારેક બાળક ગાય છે... ક્યારેક બાળક સીધું તમારા આત્મામાં ચીસો પાડે છે. આ એક સંપૂર્ણ રૂપક નથી - થોડું મૂર્ખ - પણ મુદ્દો અહીં આવે છે 😅📢.


રોજિંદા સેટિંગ્સમાં AI નું સારું સંસ્કરણ શું બનાવે છે? ✅🤝

AI નું "સારું સંસ્કરણ" તે કેટલું સ્માર્ટ છે તેના દ્વારા વ્યાખ્યાયિત થતું નથી. તે દબાણ, અનિશ્ચિતતા અને લાલચમાં તે કેટલું સારું વર્તે છે તેના દ્વારા વ્યાખ્યાયિત થાય છે (અને માણસો સસ્તા ઓટોમેશન દ્વારા ખૂબ જ લલચાય છે). ( NIST AI RMF 1.0 , OECD )

જ્યારે કોઈ દાવો કરે છે કે તેમનો AI ઉપયોગ જવાબદાર છે ત્યારે હું આ શોધું છું:

૧) સ્પષ્ટ સીમાઓ

  • સિસ્ટમને શું કરવાની છૂટ છે?

  • શું કરવાની સ્પષ્ટ મનાઈ છે?

  • જ્યારે તે અનિશ્ચિત હોય ત્યારે શું થાય છે?

૨) માનવીય જવાબદારી જે વાસ્તવિક છે, સુશોભન નહીં

માનવ "સમીક્ષા" પરિણામો ફક્ત ત્યારે જ મહત્વપૂર્ણ છે જો:

  • તેઓ સમજે છે કે તેઓ શું સમીક્ષા કરી રહ્યા છે, અને

  • તેઓ વસ્તુઓ ધીમી કરવા બદલ સજા મેળવ્યા વિના તેને ઓવરરાઇડ કરી શકે છે.

૩) યોગ્ય સ્તરે સમજાવવાની ક્ષમતા

દરેકને ગણિતની જરૂર નથી હોતી. લોકોને જરૂર છે:

  • નિર્ણય પાછળના મુખ્ય કારણો,

  • કયા ડેટાનો ઉપયોગ થયો હતો,

  • અપીલ કેવી રીતે કરવી, સુધારવું, અથવા નાપસંદ કરવું. ( યુકે ICO )

૪) માપી શકાય તેવું પ્રદર્શન - નિષ્ફળતા મોડ્સ સહિત

ફક્ત "ચોકસાઈ" જ નહીં, પણ:

  • કોના પર તે નિષ્ફળ જાય છે,

  • કેટલી વાર તે શાંતિથી નિષ્ફળ જાય છે,

  • જ્યારે દુનિયા બદલાય છે ત્યારે શું થાય છે. ( NIST AI RMF 1.0 )

૫) ગોપનીયતા અને સંમતિ જે "સેટિંગ્સમાં દફનાવવામાં આવતી નથી"

જો સંમતિ માટે મેનુઓ દ્વારા ખજાનાની શોધની જરૂર હોય તો... તે સંમતિ નથી. તે વધારાના પગલાંઓ સાથેનો છટકબારી છે 😐🧾. ( GDPR આર્ટ. 5 , UK ICO )


સરખામણી કોષ્ટક: AI ને ખૂબ આગળ વધતા અટકાવવાના વ્યવહારુ રસ્તાઓ 🧰📊

નીચે "ટોચના વિકલ્પો" એ અર્થમાં છે કે તે સામાન્ય રેલિંગ અથવા ઓપરેશનલ ટૂલ્સ છે જે પરિણામોમાં ફેરફાર કરે છે (માત્ર વાઇબ્સ જ નહીં).

સાધન / વિકલ્પ પ્રેક્ષક કિંમત તે કેમ કામ કરે છે
હ્યુમન-ઇન-ધ-લૂપ સમીક્ષા ( EU AI એક્ટ ) ઉચ્ચ દાવ લગાવતી ટીમો ££ (સમય ખર્ચ) ખરાબ ઓટોમેશનને ધીમું કરે છે. ઉપરાંત, માનવીઓ વિચિત્ર એજ-કેસ જોઈ શકે છે, ક્યારેક..
નિર્ણય અપીલ પ્રક્રિયા ( GDPR કલમ 22 ) AI નિર્ણયોથી પ્રભાવિત વપરાશકર્તાઓ મુક્ત-પ્રેમી યોગ્ય પ્રક્રિયા ઉમેરે છે. લોકો ખોટો ડેટા સુધારી શકે છે - મૂળભૂત લાગે છે કારણ કે તે મૂળભૂત છે
ઓડિટ લોગ + ટ્રેસેબિલિટી ( NIST SP 800-53 ) પાલન, કામગીરી, સુરક્ષા £-££ નિષ્ફળતા પછી ખભા ઉંચા કરવાને બદલે, "શું થયું?" નો જવાબ આપવા દો
મોડેલ મૂલ્યાંકન + પૂર્વગ્રહ પરીક્ષણ ( NIST AI RMF 1.0 ) ઉત્પાદન + જોખમ ટીમો ઘણું બદલાય છે અનુમાનિત નુકસાન વહેલું પકડી લે છે. સંપૂર્ણ નથી, પણ અનુમાન લગાવવા કરતાં વધુ સારું
રેડ-ટીમ પરીક્ષણ ( NIST GenAI પ્રોફાઇલ ) સુરક્ષા + સલામતી લોકો £££ વાસ્તવિક હુમલાખોરો કરે તે પહેલાં દુરુપયોગનું અનુકરણ કરે છે. અપ્રિય, પણ મૂલ્યવાન 😬
ડેટા મિનિમાઇઝેશન ( યુકે ICO ) બધા, પ્રમાણિકપણે £ ઓછો ડેટા = ઓછો ગડબડ. ઓછા ભંગ, ઓછી અણઘડ વાતચીતો
સામગ્રી ઉત્પત્તિ સંકેતો ( C2PA ) પ્લેટફોર્મ, મીડિયા, વપરાશકર્તાઓ £-££ "શું કોઈ માણસે આ બનાવ્યું?" તે ચકાસવામાં મદદ કરે છે - ફૂલપ્રૂફ નથી પણ અરાજકતા ઘટાડે છે
દર મર્યાદા + ઍક્સેસ નિયંત્રણો ( OWASP ) AI પ્રદાતાઓ + સાહસો £ દુરુપયોગને સ્કેલિંગથી તાત્કાલિક રોકે છે. ખરાબ કલાકારો માટે સ્પીડ બમ્પની જેમ

હા, ટેબલ થોડું અસમાન છે. બસ આ જ તો જિંદગી છે. 🙂


ઉચ્ચ દાવવાળા નિર્ણયોમાં AI: જ્યારે તે ખૂબ આગળ વધે છે 🏥🏦⚖️

આ તે જગ્યા છે જ્યાં વસ્તુઓ ઝડપથી ગંભીર બને છે.

આરોગ્યસંભાળ , નાણાં , આવાસ , રોજગાર , શિક્ષણ , ઇમિગ્રેશન , ફોજદારી ન્યાયમાં AI - આ એવી સિસ્ટમો છે જ્યાં: ( EU AI એક્ટ એનેક્સ III , FDA )

  • એક ભૂલ કોઈને પૈસા, સ્વતંત્રતા, ગૌરવ અથવા સલામતીનો ભોગ આપી શકે છે,

  • અને અસરગ્રસ્ત વ્યક્તિમાં ઘણીવાર પ્રતિકાર કરવાની મર્યાદિત શક્તિ હોય છે.

મોટું જોખમ એ નથી કે "AI ભૂલો કરે છે." મોટું જોખમ એ છે કે AI ભૂલો નીતિ બની જાય છે . ( NIST AI RMF 1.0 )

અહીં "ખૂબ દૂર" કેવું દેખાય છે?

  • કોઈ સમજૂતી વિના સ્વચાલિત નિર્ણયો: "કમ્પ્યુટર ના કહે છે." ( યુકે ICO )

  • "જોખમ સ્કોર્સ" ને અનુમાનને બદલે તથ્યો તરીકે ગણવામાં આવે છે.

  • મેનેજમેન્ટને ગતિ જોઈતી હોવાથી, જે લોકો પરિણામોને ઓવરરાઇડ કરી શકતા નથી.

  • ડેટા જે અવ્યવસ્થિત, પક્ષપાતી, જૂનો અથવા એકદમ ખોટો છે.

શું બિન-વાટાઘાટપાત્ર હોવું જોઈએ

  • અપીલ કરવાનો અધિકાર (ઝડપી, સમજી શકાય તેવું, ભુલભુલામણી નહીં). ( GDPR આર્ટ. 22 , UK ICO )

  • એ જાણવાનો અધિકાર કે AI સામેલ હતું. ( યુરોપિયન કમિશન )

  • માનવ સમીક્ષા . ( NIST AI RMF 1.0 )

  • ડેટા પર ગુણવત્તા નિયંત્રણ - કારણ કે કચરો અંદર, કચરો બહાર એ હજુ પણ પીડાદાયક રીતે સાચું છે.

જો તમે સ્પષ્ટ રેખા દોરવાનો પ્રયાસ કરી રહ્યા છો, તો અહીં એક છે:
જો કોઈ AI સિસ્ટમ કોઈના જીવનમાં ભૌતિક રીતે પરિવર્તન લાવી શકે છે, તો તેને તે જ ગંભીરતાની જરૂર છે જે આપણે અન્ય પ્રકારની સત્તા પાસેથી અપેક્ષા રાખીએ છીએ. જે લોકોએ સાઇન અપ કર્યું નથી તેમના પર કોઈ "બીટા પરીક્ષણ" નહીં. 🚫


ડીપફેક્સ, કૌભાંડો અને "મને મારી આંખો પર ભરોસો છે" નું ધીમું મૃત્યુ 👀🧨

આ એ ભાગ છે જે રોજિંદા જીવનને લપસણો અનુભવ કરાવે છે.

જ્યારે AI જનરેટ કરી શકે છે:

  • એક વૉઇસ મેસેજ જે તમારા પરિવારના સભ્ય જેવો લાગે, ( FTC , FBI )

  • એક જાહેર વ્યક્તિ કંઈક "કહેતી" હોય તેવો વિડિઓ,

  • નકલી સમીક્ષાઓનો પૂર જે પૂરતા પ્રમાણમાં અધિકૃત લાગે છે, ( FTC )

  • નકલી નોકરીનો ઇતિહાસ અને નકલી મિત્રો ધરાવતી નકલી લિંક્ડઇન પ્રોફાઇલ..

…તે ફક્ત કૌભાંડોને જ પ્રોત્સાહન આપતું નથી. તે સામાજિક ગુંદરને નબળો પાડે છે જે અજાણ્યાઓને સંકલન કરવા દે છે. અને સમાજ અજાણ્યાઓના સંકલન પર ચાલે છે. 😵💫

"ખૂબ દૂર" એ ફક્ત નકલી સામગ્રી નથી

તે અસમપ્રમાણતા :

  • જૂઠાણું પેદા કરવું સસ્તું છે.

  • સત્ય ચકાસવું મોંઘું અને ધીમું છે.

  • અને મોટાભાગના લોકો વ્યસ્ત, થાકેલા અને દોડાદોડ કરતા હોય છે.

શું મદદ કરે છે (થોડું)

  • મીડિયા માટે પ્રોવેનન્સ માર્કર્સ. ( C2PA )

  • વાયરલતા માટે ઘર્ષણ - તાત્કાલિક માસ-શેરિંગ ધીમું કરવું.

  • જ્યાં મહત્વનું હોય ત્યાં વધુ સારી ઓળખ ચકાસણી (નાણાકીય, સરકારી સેવાઓ).

  • વ્યક્તિઓ માટે મૂળભૂત "બેન્ડની બહારની આદતો ચકાસો" (કૉલ બેક કરો, કોડ વર્ડનો ઉપયોગ કરો, બીજી ચેનલ દ્વારા પુષ્ટિ કરો). ( FTC )

ગ્લેમરસ નથી. પણ સીટબેલ્ટ પણ નથી, અને મને વ્યક્તિગત રીતે તે ખૂબ જ ગમે છે. 🚗


દેખરેખનો ધસારો: જ્યારે AI શાંતિથી બધું સેન્સરમાં ફેરવી નાખે છે 📷🫥

આ ડીપફેકની જેમ ફૂટતું નથી. તે ફક્ત ફેલાય છે.

AI આને સરળ બનાવે છે:

  • ભીડમાં ચહેરા ઓળખો, ( EU AI એક્ટ , NIST FRVT )

  • ટ્રેક મૂવમેન્ટ પેટર્ન,

  • વિડિઓમાંથી લાગણીઓનું અનુમાન લગાવો (ઘણી વાર નબળી રીતે, પરંતુ આત્મવિશ્વાસથી), ( બેરેટ એટ અલ., 2019 , EU AI એક્ટ )

  • વર્તન... અથવા તમારા પડોશના વાતાવરણના આધારે "જોખમ" ની આગાહી કરો.

અને જ્યારે તે અચોક્કસ હોય ત્યારે પણ તે હાનિકારક હોઈ શકે છે કારણ કે તે હસ્તક્ષેપને યોગ્ય ઠેરવી શકે છે. ખોટી આગાહી હજુ પણ વાસ્તવિક પરિણામો લાવી શકે છે.

અસ્વસ્થતાનો ભાગ

AI-સંચાલિત દેખરેખ ઘણીવાર સલામતીની વાર્તામાં લપેટાયેલી હોય છે:

  • "તે છેતરપિંડી અટકાવવા માટે છે."

  • "તે સુરક્ષા માટે છે."

  • "તે વપરાશકર્તા અનુભવ માટે છે."

ક્યારેક તે સાચું હોય છે. ક્યારેક તે એવી ઇમારતો બનાવવા માટે એક અનુકૂળ બહાનું પણ બની જાય છે જેને પાછળથી તોડી પાડવી ખૂબ જ મુશ્કેલ હોય છે. જેમ કે તમારા પોતાના ઘરમાં એક-માર્ગી દરવાજો સ્થાપિત કરવો કારણ કે તે સમયે તે કાર્યક્ષમ લાગતું હતું. ફરીથી, એક સંપૂર્ણ રૂપક નથી - થોડું હાસ્યાસ્પદ - પણ તમને તે લાગે છે. 🚪😅

અહીં "સારું" કેવું દેખાય છે?

  • રીટેન્શન અને શેરિંગ પર કડક મર્યાદાઓ.

  • નાપસંદગી દૂર કરો.

  • ઉપયોગના કિસ્સાઓ સાંકડા.

  • સ્વતંત્ર દેખરેખ.

  • સજા અથવા ગેટકીપિંગ માટે કોઈ "લાગણી શોધ" નો ઉપયોગ થતો નથી. કૃપા કરીને. 🙃 ( EU AI એક્ટ )


કાર્ય, સર્જનાત્મકતા અને શાંત ડેસ્કિલિંગ સમસ્યા 🧑💻🎨

આ તે જગ્યા છે જ્યાં ચર્ચા વ્યક્તિગત બની જાય છે કારણ કે તે ઓળખને સ્પર્શે છે.

AI લોકોને વધુ ઉત્પાદક બનાવી શકે છે. તે લોકોને બદલી શકાય તેવું પણ અનુભવી શકે છે. બંને એક જ સમયે, એક જ અઠવાડિયામાં સાચા હોઈ શકે છે. ( OECD , WEF )

જ્યાં તે ખરેખર મદદરૂપ થાય છે

  • માનવીઓ વિચાર પર ધ્યાન કેન્દ્રિત કરી શકે તે માટે નિયમિત લખાણ તૈયાર કરવું.

  • પુનરાવર્તિત પેટર્ન માટે કોડિંગ સહાય.

  • સુલભતા સાધનો (કેપ્શનિંગ, સારાંશ, અનુવાદ).

  • જ્યારે તમે અટવાઈ જાઓ ત્યારે વિચાર-વિમર્શ.

જ્યાં તે ખૂબ દૂર જાય છે

  • સંક્રમણ યોજનાઓ વિના ભૂમિકાઓ બદલવી.

  • AI નો ઉપયોગ કરીને આઉટપુટ ઘટાડવો અને વેતન ઘટાડવું.

  • સર્જનાત્મક કાર્યને અનંત મફત તાલીમ ડેટા તરીકે ગણવું, પછી ખભા ઉંચા કરવા. ( યુએસ કોપીરાઇટ ઓફિસ , યુકે GOV.UK )

  • જુનિયર ભૂમિકાઓ અદૃશ્ય થઈ જાય છે - જે કાર્યક્ષમ લાગે છે જ્યાં સુધી તમને ખ્યાલ ન આવે કે તમે ભવિષ્યના નિષ્ણાતોને જે સીડી ચઢવાની જરૂર છે તે બાળી નાખી છે.

ડિસ્કિલિંગ સૂક્ષ્મ છે. તમે તેને રોજબરોજ ધ્યાનમાં લેતા નથી. પછી એક દિવસ તમને ખ્યાલ આવે છે કે ટીમમાં કોઈને યાદ નથી કે સહાયક વિના વસ્તુ કેવી રીતે કાર્ય કરે છે. અને જો સહાયક ખોટો હોય, તો તમે બધા એકસાથે આત્મવિશ્વાસથી ખોટા છો… જે એક પ્રકારનું દુઃસ્વપ્ન છે. 😬


પાવર એકાગ્રતા: ડિફોલ્ટ કોણ સેટ કરી શકે છે? 🏢⚡

ભલે AI "તટસ્થ" હોય (તે નથી), જે કોઈ તેને નિયંત્રિત કરે છે તે આકાર આપી શકે છે:

  • કઈ માહિતી સરળતાથી મળી શકે છે,

  • શું બઢતી મળે છે અથવા દફનાવવામાં આવે છે,

  • કઈ ભાષામાં બોલવાની મંજૂરી છે,

  • કયા વર્તનને પ્રોત્સાહન આપવામાં આવે છે.

અને કારણ કે AI સિસ્ટમ્સ બનાવવી અને ચલાવવી મોંઘી હોઈ શકે છે, શક્તિ કેન્દ્રિત થવાનું વલણ ધરાવે છે. તે કાવતરું નથી. તે ટેક હૂડી સાથેનું અર્થશાસ્ત્ર છે. ( યુકે CMA )

અહીં "બહુ દૂર" ક્ષણ છે

જ્યારે ડિફોલ્ટ્સ અદ્રશ્ય કાયદો બની જાય છે:

  • તમને ખબર નથી કે શું ફિલ્ટર થઈ રહ્યું છે,

  • તમે તર્કનું નિરીક્ષણ કરી શકતા નથી,

  • અને તમે કાર્ય, સમુદાય અથવા મૂળભૂત સેવાઓની ઍક્સેસ ગુમાવ્યા વિના વાસ્તવિક રીતે નાપસંદ કરી શકતા નથી.

એક સ્વસ્થ ઇકોસિસ્ટમ માટે સ્પર્ધા, પારદર્શિતા અને વાસ્તવિક વપરાશકર્તા પસંદગીની જરૂર હોય છે. નહીં તો તમે મૂળભૂત રીતે વાસ્તવિકતાને ભાડે લઈ રહ્યા છો. 😵♂️


એક વ્યવહારુ ચેકલિસ્ટ: કેવી રીતે જાણવું કે AI તમારી દુનિયામાં ખૂબ આગળ વધી રહ્યું છે 🧾🔍

અહીં એક આંતરડાની તપાસ યાદી છે જેનો હું ઉપયોગ કરું છું (અને હા, તે અપૂર્ણ છે):

જો તમે એક વ્યક્તિ છો

  • હું AI સાથે ક્યારે વાતચીત કરી રહ્યો છું તે હું જાણી શકું છું. ( યુરોપિયન કમિશન )

  • આ સિસ્ટમ મને ઓવરશેર કરવા માટે પ્રેરે છે.

  • જો આઉટપુટ ખોટું હોય તો મને તેની સાથે વિશ્વાસપાત્ર રીતે વ્યવહાર કરવામાં કોઈ વાંધો નથી.

  • જો આનો ઉપયોગ કરીને મારી સાથે છેતરપિંડી થાય, તો પ્લેટફોર્મ મને મદદ કરશે... નહીં તો તે મને ખભા ઉચકશે.

જો તમે કોઈ વ્યવસાય અથવા ટીમ છો

  • આપણે AI નો ઉપયોગ એટલા માટે કરી રહ્યા છીએ કારણ કે તે મૂલ્યવાન છે, અથવા કારણ કે તે ટ્રેન્ડી છે અને મેનેજમેન્ટ બેચેન છે.

  • આપણે જાણીએ છીએ કે સિસ્ટમ કયા ડેટાને સ્પર્શે છે.

  • અસરગ્રસ્ત વપરાશકર્તા પરિણામો સામે અપીલ કરી શકે છે. ( યુકે ICO )

  • માનવોને મોડેલને ઓવરરાઇડ કરવાની સત્તા આપવામાં આવી છે.

  • અમારી પાસે AI નિષ્ફળતાઓ માટે ઘટના પ્રતિભાવ યોજનાઓ છે.

  • અમે ડ્રિફ્ટ, દુરુપયોગ અને અસામાન્ય એજ કેસોનું નિરીક્ષણ કરી રહ્યા છીએ.

જો તમે આમાંના ઘણા બધાનો જવાબ "ના" માં આપો છો, તો તેનો અર્થ એ નથી કે તમે દુષ્ટ છો. તેનો અર્થ એ છે કે તમે "અમે તેને મોકલ્યું અને આશા રાખી." ની સામાન્ય માનવીય સ્થિતિમાં છો. પરંતુ દુર્ભાગ્યે, આશા રાખવી એ કોઈ વ્યૂહરચના નથી. 😅


સમાપન નોંધો 🧠✅

તો... શું AI ખૂબ આગળ વધી ગયું છે?
તે ખૂબ આગળ વધી ગયું છે જ્યાં તેને જવાબદારી વિના ઉપયોગમાં લેવામાં આવે છે , ખાસ કરીને ઉચ્ચ-દાવના નિર્ણયો, સામૂહિક સમજાવટ અને દેખરેખમાં. તે ખૂબ આગળ વધી ગયું છે જ્યાં તે વિશ્વાસને નષ્ટ કરે છે - કારણ કે એકવાર વિશ્વાસ તૂટે છે, સામાજિક રીતે કહીએ તો, બધું વધુ ખર્ચાળ અને વધુ પ્રતિકૂળ બની જાય છે. ( NIST AI RMF 1.0 , EU AI એક્ટ )

પરંતુ AI સ્વાભાવિક રીતે જ નકામું કે સંપૂર્ણ નથી. તે એક શક્તિશાળી ગુણક છે. પ્રશ્ન એ છે કે શું આપણે ક્ષમતાઓ જેટલી આક્રમક રીતે બનાવીએ છીએ તેટલી જ આક્રમક રીતે રેલિંગ બનાવીએ છીએ.

ઝડપી રીકેપ:

  • એક સાધન તરીકે AI સારું છે.

  • એક બિનજવાબદાર સત્તા તરીકે તે ખતરનાક છે.

  • જો કોઈ અપીલ ન કરી શકે, સમજી ન શકે અથવા નાપસંદ ન કરી શકે - તો ત્યાંથી "ખૂબ દૂર" શરૂ થાય છે. 🚦 ( GDPR આર્ટ. 22 , UK ICO )


વારંવાર પૂછાતા પ્રશ્નો

શું રોજિંદા જીવનમાં AI ખૂબ આગળ વધી ગયું છે?

ઘણી જગ્યાએ, AI ખૂબ આગળ વધી ગયું છે કારણ કે તે સ્પષ્ટ સીમાઓ અથવા જવાબદારી વિના નિર્ણયો અને ક્રિયાપ્રતિક્રિયાઓમાં ફસાઈ ગયું છે. સમસ્યા ભાગ્યે જ "AI અસ્તિત્વમાં છે" ની છે; તે AI ને શાંતિથી ભરતી, આરોગ્યસંભાળ, ગ્રાહક સેવા અને ફીડ્સમાં પાતળી દેખરેખ સાથે જોડવામાં આવી રહ્યું છે. જ્યારે લોકો કહી શકતા નથી કે તે AI છે, પરિણામોનો વિરોધ કરી શકતા નથી, અથવા નાપસંદ કરી શકતા નથી, ત્યારે તે એક સાધન જેવું લાગવાનું બંધ કરે છે અને એક સિસ્ટમ જેવું લાગવાનું શરૂ કરે છે.

ઊંચા દાવવાળા નિર્ણયોમાં "AI ખૂબ આગળ વધી રહ્યું છે" કેવું દેખાય છે?

એવું લાગે છે કે મજબૂત રેલિંગ વિના આરોગ્યસંભાળ, નાણાં, આવાસ, રોજગાર, શિક્ષણ, ઇમિગ્રેશન અથવા ફોજદારી ન્યાયમાં AI નો ઉપયોગ થઈ રહ્યો છે. મુખ્ય મુદ્દો એ નથી કે મોડેલો ભૂલો કરે છે; તે એ છે કે તે ભૂલો નીતિમાં કઠણ થઈ જાય છે અને પડકારવા મુશ્કેલ બની જાય છે. "કમ્પ્યુટર ના કહે છે" ના નિર્ણયો પાતળા સમજૂતીઓ અને કોઈ અર્થપૂર્ણ અપીલ વિના નુકસાન ઝડપથી વધે છે.

ઓટોમેટેડ નિર્ણય મને અસર કરી રહ્યો છે કે નહીં તે હું કેવી રીતે જાણી શકું અને હું શું કરી શકું?

એક સામાન્ય સંકેત એ અચાનક પરિણામ છે જેના માટે તમે જવાબદાર નથી: કોઈ સ્પષ્ટ કારણ વિના અસ્વીકાર, પ્રતિબંધ, અથવા "જોખમ સ્કોર" વાઇબ. ઘણી સિસ્ટમોએ ક્યારે AI એ મહત્વપૂર્ણ ભૂમિકા ભજવી હતી તે જાહેર કરવું જોઈએ, અને તમે નિર્ણય પાછળના મુખ્ય કારણો અને તેની અપીલ કરવાના પગલાંની વિનંતી કરી શકશો. વ્યવહારમાં, માનવ સમીક્ષા માટે પૂછો, કોઈપણ ખોટો ડેટા સુધારો, અને સીધા નાપસંદગીના માર્ગ માટે દબાણ કરો.

શું AI ગોપનીયતા, સંમતિ અને ડેટાના ઉપયોગની બાબતમાં ખૂબ આગળ વધી ગયું છે?

ઘણીવાર એવું બને છે જ્યારે સંમતિ એક શોધખોળ બની જાય છે અને ડેટા સંગ્રહ "ફક્ત કિસ્સામાં" વિસ્તરે છે. લેખનો મુખ્ય મુદ્દો એ છે કે ગોપનીયતા અને સંમતિ જો સેટિંગ્સમાં દફનાવવામાં આવે અથવા અસ્પષ્ટ શબ્દો દ્વારા દબાણ કરવામાં આવે તો તે વધુ વજન રાખતા નથી. એક સ્વસ્થ અભિગમ એ ડેટા ન્યૂનતમકરણ છે: ઓછો એકત્રિત કરો, ઓછો રાખો અને પસંદગીઓને સ્પષ્ટ બનાવો જેથી લોકો પછીથી આશ્ચર્ય ન પામે.

ડીપફેક્સ અને એઆઈ કૌભાંડો ઓનલાઈન "ટ્રસ્ટ" નો અર્થ કેવી રીતે બદલી નાખે છે?

તેઓ નકલી અવાજો, વિડિઓઝ, સમીક્ષાઓ અને ઓળખ બનાવવાનો ખર્ચ ઘટાડીને સત્યને વૈકલ્પિક લાગે છે. અસમપ્રમાણતા એ સમસ્યા છે: જૂઠાણું ઉત્પન્ન કરવું સસ્તું છે, જ્યારે સત્ય ચકાસવું ધીમું અને કંટાળાજનક છે. વ્યવહારુ બચાવમાં મીડિયા માટે ઉત્પત્તિ સંકેતો, વાયરલ શેરિંગને ધીમું કરવું, જ્યાં તે મહત્વનું હોય ત્યાં મજબૂત ઓળખ તપાસ અને પાછા કૉલ કરવા અથવા શેર કરેલા કોડ શબ્દનો ઉપયોગ કરવા જેવી "બેન્ડમાંથી બહાર ચકાસો" ટેવોનો સમાવેશ થાય છે.

AI ને ખૂબ આગળ વધતા અટકાવવા માટે સૌથી વ્યવહારુ રેલિંગ કયા છે?

પરિણામોને બદલી નાખતી ગાર્ડરેલ્સમાં ઉચ્ચ-દાવવાળા કોલ્સ માટે વાસ્તવિક માનવ-ઇન-ધ-લૂપ સમીક્ષા, સ્પષ્ટ અપીલ પ્રક્રિયાઓ અને નિષ્ફળતાઓ પછી "શું થયું?" નો જવાબ આપી શકે તેવા ઓડિટ લોગનો સમાવેશ થાય છે. મોડેલ મૂલ્યાંકન અને પૂર્વગ્રહ પરીક્ષણ અગાઉથી અનુમાનિત નુકસાનને પકડી શકે છે, જ્યારે રેડ-ટીમ પરીક્ષણ હુમલાખોરો કરે તે પહેલાં દુરુપયોગનું અનુકરણ કરે છે. દર મર્યાદા અને ઍક્સેસ નિયંત્રણો દુરુપયોગને તાત્કાલિક સ્કેલિંગથી અટકાવવામાં મદદ કરે છે, અને ડેટા ન્યૂનતમકરણ સમગ્ર બોર્ડમાં જોખમ ઘટાડે છે.

એઆઈ-સંચાલિત સર્વેલન્સ ક્યારે મર્યાદા પાર કરે છે?

જ્યારે બધું જ ડિફોલ્ટ રૂપે સેન્સરમાં ફેરવાઈ જાય છે ત્યારે તે મર્યાદા પાર કરે છે: ભીડમાં ચહેરો ઓળખ, હલનચલન-પેટર્ન ટ્રેકિંગ, અથવા સજા અથવા ગેટકીપિંગ માટે ઉપયોગમાં લેવાતી આત્મવિશ્વાસપૂર્ણ "લાગણી શોધ". જો તેઓ હસ્તક્ષેપો અથવા સેવાઓનો ઇનકાર યોગ્ય ઠેરવે તો અચોક્કસ સિસ્ટમો પણ ગંભીર નુકસાન પહોંચાડી શકે છે. સારી પ્રથા સાંકડા ઉપયોગના કિસ્સાઓ, કડક રીટેન્શન મર્યાદાઓ, અર્થપૂર્ણ ઓપ્ટ-આઉટ્સ, સ્વતંત્ર દેખરેખ અને અસ્થિર લાગણી-આધારિત ચુકાદાઓ માટે મક્કમ "ના" જેવી લાગે છે.

શું AI લોકોને વધુ ઉત્પાદક બનાવી રહ્યું છે - કે પછી શાંતિથી કામને દૂર કરી રહ્યું છે?

બંને એક જ સમયે સાચા હોઈ શકે છે, અને તે તણાવ એ મુદ્દો છે. AI નિયમિત ડ્રાફ્ટિંગ, પુનરાવર્તિત કોડિંગ પેટર્ન અને સુલભતામાં મદદ કરી શકે છે, જે માનવોને ઉચ્ચ-સ્તરીય વિચારસરણી પર ધ્યાન કેન્દ્રિત કરવા માટે મુક્ત કરે છે. જ્યારે તે સંક્રમણ યોજનાઓ વિના ભૂમિકાઓને બદલે છે, વેતનને સંકોચાય છે, સર્જનાત્મક કાર્યને મફત તાલીમ ડેટાની જેમ વર્તે છે, અથવા ભવિષ્યની કુશળતા બનાવતી જુનિયર ભૂમિકાઓને દૂર કરે છે ત્યારે તે ખૂબ આગળ વધે છે. જ્યાં સુધી ટીમો સહાયક વિના કાર્ય કરી શકતી નથી ત્યાં સુધી ડિસ્કિલિંગ સૂક્ષ્મ રહે છે.

સંદર્ભ

  1. નેશનલ ઇન્સ્ટિટ્યૂટ ઓફ સ્ટાન્ડર્ડ્સ એન્ડ ટેકનોલોજી (NIST) - AI રિસ્ક મેનેજમેન્ટ ફ્રેમવર્ક (AI RMF 1.0) - nist.gov

  2. યુરોપિયન યુનિયન - EU AI એક્ટ (નિયમન (EU) 2024/1689) - સત્તાવાર જર્નલ (અંગ્રેજી) - europa.eu

  3. યુરોપિયન કમિશન - AI માટે નિયમનકારી માળખું (EU AI એક્ટ પોલિસી પેજ) - europa.eu

  4. EU AI એક્ટ સર્વિસ ડેસ્ક - પરિશિષ્ટ III (ઉચ્ચ-જોખમવાળી AI સિસ્ટમ્સ) - europa.eu

  5. યુરોપિયન યુનિયન - EU માં વિશ્વસનીય કૃત્રિમ બુદ્ધિ માટેના નિયમો (EU AI એક્ટ સારાંશ) - europa.eu

  6. યુકે ઇન્ફર્મેશન કમિશનર ઓફિસ (ICO) - ઓટોમેટેડ વ્યક્તિગત નિર્ણય લેવા અને પ્રોફાઇલિંગ શું છે? - ​​ico.org.uk

  7. યુકે ઇન્ફર્મેશન કમિશનર ઓફિસ (ICO) - યુકે GDPR ઓટોમેટેડ નિર્ણય લેવા અને પ્રોફાઇલિંગ વિશે શું કહે છે? - ​​ico.org.uk

  8. યુકે ઇન્ફર્મેશન કમિશનર ઓફિસ (ICO) - ઓટોમેટેડ નિર્ણય-નિર્માણ અને પ્રોફાઇલિંગ (માર્ગદર્શન કેન્દ્ર) - ico.org.uk

  9. યુકે ઇન્ફર્મેશન કમિશનર ઓફિસ (ICO) - ડેટા મિનિમાઇઝેશન (યુકે GDPR સિદ્ધાંતો માર્ગદર્શન) - ico.org.uk

  10. GDPR-info.eu - કલમ 22 GDPR - gdpr-info.eu

  11. GDPR-info.eu - કલમ 5 GDPR - gdpr-info.eu

  12. યુએસ ફેડરલ ટ્રેડ કમિશન (FTC) - સ્કેમર્સ તેમની કૌટુંબિક કટોકટી યોજનાઓને વધારવા માટે AI નો ઉપયોગ કરે છે - ftc.gov

  13. યુએસ ફેડરલ ટ્રેડ કમિશન (FTC) - કૌભાંડીઓ તમારા પૈસા ચોરી કરવા માટે નકલી કટોકટીનો ઉપયોગ કરે છે - ftc.gov

  14. યુએસ ફેડરલ ટ્રેડ કમિશન (FTC) - નકલી સમીક્ષાઓ અને પ્રશંસાપત્રો પર પ્રતિબંધ મૂકવાનો અંતિમ નિયમ (પ્રેસ રિલીઝ) - ftc.gov

  15. ફેડરલ બ્યુરો ઓફ ઇન્વેસ્ટિગેશન (FBI) - FBI એ કૃત્રિમ બુદ્ધિમત્તાનો ઉપયોગ કરીને સાયબર ગુનેગારોના વધતા જોખમ અંગે ચેતવણી આપી છે - fbi.gov

  16. આર્થિક સહકાર અને વિકાસ સંગઠન (OECD) - OECD AI સિદ્ધાંતો - oecd.ai

  17. OECD - કૃત્રિમ બુદ્ધિ પરિષદની ભલામણ (OECD/LEGAL/0449) - oecd.org

  18. યુરોપિયન કમિશન - પારદર્શક AI સિસ્ટમ્સ માટે માર્ગદર્શિકા અને આચારસંહિતા (FAQs) - europa.eu

  19. કન્ટેન્ટ પ્રોવેનન્સ એન્ડ ઓથેન્ટિકિટી માટે ગઠબંધન (C2PA) - સ્પષ્ટીકરણો v2.3 - c2pa.org

  20. યુકે કોમ્પિટિશન એન્ડ માર્કેટ્સ ઓથોરિટી (CMA) - AI ફાઉન્ડેશન મોડેલ્સ: પ્રારંભિક અહેવાલ - gov.uk

  21. યુએસ ફૂડ એન્ડ ડ્રગ એડમિનિસ્ટ્રેશન (FDA) - આર્ટિફિશિયલ ઇન્ટેલિજન્સ-સક્ષમ તબીબી ઉપકરણો - fda.gov

  22. NIST - માહિતી પ્રણાલીઓ અને સંગઠનો માટે સુરક્ષા અને ગોપનીયતા નિયંત્રણો (SP 800-53 રેવ. 5) - nist.gov

  23. NIST - જનરેટિવ AI પ્રોફાઇલ (NIST.AI.600-1, ipd) - nist.gov

  24. ઓપન વર્લ્ડવાઇડ એપ્લિકેશન સિક્યુરિટી પ્રોજેક્ટ (OWASP) - અપ્રતિબંધિત સંસાધન વપરાશ (API સિક્યુરિટી ટોપ 10, 2023) - owasp.org

  25. NIST - ફેસ રેકગ્નિશન વેન્ડર ટેસ્ટ (FRVT) ડેમોગ્રાફિક્સ - nist.gov

  26. બેરેટ અને અન્ય (2019) - લેખ (PMC) - nih.gov

  27. OECD - કાર્યસ્થળમાં AI નો ઉપયોગ (PDF) - oecd.org

  28. વર્લ્ડ ઇકોનોમિક ફોરમ (WEF) - ધ ફ્યુચર ઓફ જોબ્સ રિપોર્ટ 2025 - ડાયજેસ્ટ - weforum.org

  29. યુએસ કોપીરાઇટ ઓફિસ - કોપીરાઇટ અને આર્ટિફિશિયલ ઇન્ટેલિજન્સ, ભાગ 3: જનરેટિવ એઆઈ ટ્રેનિંગ રિપોર્ટ (પ્રી-પ્રકાશન વર્ઝન) (પીડીએફ) - copyright.gov

  30. યુકે સરકાર (GOV.UK) - કોપીરાઇટ અને કૃત્રિમ બુદ્ધિ (પરામર્શ) - gov.uk

અધિકૃત AI સહાયક સ્ટોર પર નવીનતમ AI શોધો

અમારા વિશે

બ્લોગ પર પાછા