[ad_1]
AI- రూపొందించిన వాస్తవిక చిత్రాలు మరియు ఆడియో రికార్డింగ్లు ప్రజాస్వామ్యానికి తాజా ముప్పు కావచ్చు, కానీ అవి సుదీర్ఘ మోసపూరిత చరిత్రలో భాగం. డీప్ఫేక్లు అని పిలవబడే వాటిని ఎదుర్కోవడానికి మార్గం పుకార్లను ఎదుర్కోవడానికి AIని అభివృద్ధి చేయడం లేదా నకిలీ చిత్రాలను గుర్తించడానికి ప్రజలకు శిక్షణ ఇవ్వడం కాదు. కొన్ని ప్రసిద్ధ విమర్శనాత్మక ఆలోచనా పద్ధతులను ప్రోత్సహించడం మంచి వ్యూహం. అంటే మీ దృష్టిని మళ్లీ కేంద్రీకరించడం, మీ మూలాలను మళ్లీ సందర్శించడం మరియు మిమ్మల్ని మీరు ప్రశ్నించుకోవడం.
AI- రూపొందించిన వాస్తవిక చిత్రాలు మరియు ఆడియో రికార్డింగ్లు ప్రజాస్వామ్యానికి తాజా ముప్పు కావచ్చు, కానీ అవి సుదీర్ఘ మోసపూరిత చరిత్రలో భాగం. డీప్ఫేక్లు అని పిలవబడే వాటిని ఎదుర్కోవడానికి మార్గం పుకార్లను ఎదుర్కోవడానికి AIని అభివృద్ధి చేయడం లేదా నకిలీ చిత్రాలను గుర్తించడానికి ప్రజలకు శిక్షణ ఇవ్వడం కాదు. కొన్ని ప్రసిద్ధ విమర్శనాత్మక ఆలోచనా పద్ధతులను ప్రోత్సహించడం మంచి వ్యూహం. అంటే మీ దృష్టిని మళ్లీ కేంద్రీకరించడం, మీ మూలాలను మళ్లీ సందర్శించడం మరియు మిమ్మల్ని మీరు ప్రశ్నించుకోవడం.
ఈ విమర్శనాత్మక ఆలోచనా సాధనాల్లో కొన్ని “సిస్టమ్ 2” లేదా స్లో థింకింగ్ విభాగంలోకి వస్తాయి, డేనియల్ కాహ్నెమాన్ యొక్క థింకింగ్, ఫాస్ట్ అండ్ స్లోలో వివరించబడింది. మా ఫాస్ట్-థింకింగ్ సిస్టమ్ 1ని మోసం చేయడంలో AI మంచిది, ఇది తరచుగా ముగింపులకు వస్తుంది.
హలో!ప్రీమియం కథనాలను చదవడం
ఈ విమర్శనాత్మక ఆలోచనా సాధనాల్లో కొన్ని “సిస్టమ్ 2” లేదా స్లో థింకింగ్ విభాగంలోకి వస్తాయి, డేనియల్ కాహ్నెమాన్ థింకింగ్, ఫాస్ట్ అండ్ స్లో. మా ఫాస్ట్-థింకింగ్ సిస్టమ్ 1ని మోసం చేయడంలో AI మంచిది, ఇది తరచుగా ముగింపులకు వస్తుంది.
గాసిప్ మరియు పుకార్లు కాకుండా విధానాలు మరియు పనితీరుపై దృష్టి సారించడం ద్వారా ప్రారంభిద్దాం. మాజీ అధ్యక్షుడు డొనాల్డ్ ట్రంప్ తన మాటలపై పొరపాట్లు చేసి, AI తారుమారుని ఖండించినప్పుడు ఏమి జరుగుతుంది? అధ్యక్షుడు జో బిడెన్ తేదీని మరచిపోతే ఏమి జరుగుతుంది? మనిషి యొక్క పాలసీ రికార్డ్ లేదా ప్రాధాన్యతల గురించి ఏ సందర్భంలోనూ మాకు ఏమీ చెప్పలేదు.
ఏ చిత్రాలు నిజమైనవి లేదా నకిలీవి అనే దానిపై శ్రద్ధ చూపడం వల్ల సమయం మరియు శక్తి వృధా కావచ్చు. నకిలీలను గుర్తించడంలో మనం చెడ్డవాళ్లమని పరిశోధనలు చెబుతున్నాయి.
వెస్ట్రన్ సిడ్నీ యూనివర్శిటీకి చెందిన గణన న్యూరో సైంటిస్ట్ టిగిల్ గ్రూట్స్వాగర్స్ మాట్లాడుతూ, “మనుషులు తప్పుగా ఉన్న వాటిని గుర్తించడంలో చాలా మంచివారు. నకిలీలను గుర్తించడానికి ప్రయత్నిస్తున్నప్పుడు ప్రజలు లోపాలను వెతుకుతారు, కానీ నిజమైన చిత్రాలలో లోపాలు ఎక్కువగా ఉంటాయి.
డీప్ఫేక్ చిత్రాలను ప్రజలు తెలియకుండానే విశ్వసించవచ్చని, ఎందుకంటే అవి నిజమైన వాటి కంటే పరిపూర్ణమైనవి అని ఆయన అన్నారు. మానవులు తక్కువ విపరీతమైన మరియు మరింత సుష్టమైన ముఖాలను ఇష్టపడతారు మరియు విశ్వసిస్తారు, కాబట్టి AI- రూపొందించిన చిత్రాలు తరచుగా నిజమైన వాటి కంటే మరింత ఆకర్షణీయంగా మరియు నమ్మదగినవిగా కనిపిస్తాయి.
సోషల్ మీడియాలో చిత్రాలు లేదా క్లెయిమ్లు ఎదురైనప్పుడు మరింత పరిశోధించమని ఓటర్లను కోరడం సరిపోదు. కొన్ని “పరిశోధన” చేయడానికి Googleని ఉపయోగించిన తర్వాత కల్పిత వార్తా కథనాలను ప్రజలు ఎక్కువగా విశ్వసించే అవకాశం ఉందని సామాజిక శాస్త్రవేత్తలు ఇటీవల ఆశ్చర్యకరమైన అన్వేషణను ప్రకటించారు.
పరిశోధన ప్రజలకు లేదా ప్రజాస్వామ్యానికి చెడ్డదని రుజువు కాదు. సమస్య ఏమిటంటే చాలా మంది ఆలోచనా రహిత పరిశోధనలు చేస్తారు. వారు ఎంత విపరీతమైన దావాతో సంబంధం లేకుండా ఇంటర్నెట్లో సమృద్ధిగా ఉన్న నిర్ధారణ సాక్ష్యం కోసం చూస్తారు.
అసలు పరిశోధన అనేది ఒక నిర్దిష్ట మూలాన్ని నమ్మడానికి కారణం ఉందా అని అడగడం. ఇది ఒక ప్రసిద్ధ వార్తా సైట్? ప్రజల విశ్వాసాన్ని పొందిన నిపుణుడు? రియల్ రీసెర్చ్ అంటే మీరు నమ్మాలనుకున్నది తప్పు అనే అవకాశం కూడా ఉంది. ప్రధాన స్రవంతి మీడియాలో పుకార్లు Xలో పునరావృతం కావడానికి అత్యంత సాధారణ కారణాలలో ఒకటి నమ్మదగిన సాక్ష్యం లేకపోవడం.
ఆర్టిఫిషియల్ ఇంటెలిజెన్స్కు ధన్యవాదాలు, కథనాలపై వ్యాఖ్యానించడానికి వాస్తవిక నకిలీ వ్యక్తులను సృష్టించడం మరియు నకిలీ వార్తల సైట్లను ప్రోత్సహించడానికి సోషల్ మీడియాను ఉపయోగించడం ఇప్పుడు సాధ్యమవుతుందని ఇండియానా యూనివర్శిటీ సోషల్ మీడియా అబ్జర్వేటరీకి చెందిన కంప్యూటర్ శాస్త్రవేత్త మరియు డైరెక్టర్ ఫిలిప్పో మెంట్జెర్ చెప్పారు. చౌకగా మరియు సులభంగా మారతాయి.
బాట్లుగా పిలిచే నకిలీ ఖాతాల వ్యాప్తిపై ఏళ్ల తరబడి అధ్యయనం చేస్తున్నాడు. బాట్లు సామాజిక రుజువు యొక్క మానసిక సూత్రం ద్వారా ప్రభావం చూపుతాయి, ఇక్కడ పెద్ద సంఖ్యలో వ్యక్తులు నిర్దిష్ట వ్యక్తి లేదా ఆలోచనను ఇష్టపడుతున్నట్లు లేదా అంగీకరిస్తున్నారు. ప్రారంభ బాట్లు క్రూడ్గా ఉండేవి, కానీ ఇప్పుడు సుదీర్ఘమైన, వివరణాత్మక మరియు చాలా వాస్తవిక చర్చలు ఉన్నట్లు కనిపించే బాట్లను సృష్టించడం సాధ్యమవుతుందని అతను చెప్పాడు.
కానీ ఇది చాలా పాత యుద్ధంలో ఇప్పటికీ కొత్త వ్యూహం. “తప్పుడు సమాచారాన్ని సృష్టించడానికి మీకు నిజంగా అధునాతన సాధనాలు అవసరం లేదు,” అని కార్నెల్ విశ్వవిద్యాలయానికి చెందిన సైకాలజిస్ట్ గోర్డాన్ పెన్నీకూక్ అన్నారు. “మేము ప్రజలను మోసగించడంలో వాటిని తిరిగి పొందడంలో విజయం సాధించాము,” అని అతను చెప్పాడు.
పెన్నీకూక్ మరియు నేను చాలా నమ్మకం మరియు చాలా తక్కువ నమ్మకం మధ్య ఉద్రిక్తత గురించి మాట్లాడాము. చాలా తక్కువ విశ్వాసం ప్రజలను వాస్తవికతను అనుమానించడానికి దారితీసే ప్రమాదం ఉన్నప్పటికీ, ప్రజలు ఎక్కువగా విశ్వసించే అదనపు ప్రమాదం ఉందని మేము అంగీకరించాము.
మేము నిజంగా అంతర్దృష్టి కోసం ప్రయత్నించాలనుకుంటున్నాము, కాబట్టి వ్యక్తులు సరైన ప్రశ్నలను అడుగుతారు. సోషల్ మీడియాలో ఏదైనా షేర్ చేసినప్పుడు అది నిజమా కాదా అని కూడా ఆలోచించరు’’ అని అన్నారు. వారు సాధారణంగా దానిని పంచుకోవడం ద్వారా వారు ఎలా కనిపిస్తారు అనే దాని గురించి ఎక్కువగా ఆలోచిస్తారు.
టీవీ లేదా సోషల్ మీడియాలో మనం చూసే వాటిని ఇకపై విశ్వసించకుండా AI చేస్తే అది చెడ్డ విషయం కాదు. ఎందుకంటే ఇటీవలి AI పురోగమనాలకు చాలా కాలం ముందు వాటిలో చాలా అవిశ్వసనీయమైనవి మరియు మానిప్యులేటివ్గా ఉన్నాయి. టెలివిజన్ యొక్క ఆగమనం అన్ని అభ్యర్థులకు భౌతిక ఆకర్షణను మరింత ముఖ్యమైన అంశంగా చేసింది. మీ ఓటును ఆధారం చేసుకోవడానికి ఇంకా ముఖ్యమైన ప్రమాణాలు ఉన్నాయి.
విధానం, ప్రశ్న మూలాల ద్వారా ఆలోచించడం మరియు మనల్ని మనం పునరాలోచించుకోవడం కోసం నెమ్మదిగా, మరింత శ్రమతో కూడిన మానవ మేధస్సు అవసరం. కానీ ప్రమాదంలో ఉన్నదాన్ని పరిగణనలోకి తీసుకోవడం విలువైనదే. © బ్లూమ్బెర్గ్
[ad_2]
Source link
