[ad_1]
+972 మ్యాగజైన్ యొక్క షాకింగ్ కొత్త పరిశోధన ప్రకారం గాజా స్ట్రిప్లోని 30,000 కంటే ఎక్కువ లక్ష్యాలను కనీస మానవ ప్రమేయంతో ఎంచుకోవడానికి ఇజ్రాయెల్ సైన్యం కృత్రిమ మేధస్సుతో నడిచే “కిల్ లిస్ట్”ను ఉపయోగించింది. నలిగిపోతున్న ప్రాంతాల్లో పౌర మరణాలు పెరుగుతున్నాయని వెల్లడైంది. యుద్ధం ద్వారా.
IDF ప్రకారం, ముఖ్యంగా గాజా యుద్ధం ప్రారంభ దశలో, ఇజ్రాయెల్ డిఫెన్స్ ఫోర్సెస్ (IDF) సిబ్బంది AI యొక్క 10% తప్పుడు సానుకూల రేటును విస్మరించారు మరియు పౌరులకు హాని కలిగించే సంభావ్యత పెరిగినప్పటికీ, వారి ఇళ్లలోకి వెళ్లవలసి వచ్చింది. మార్గనిర్దేశం చేయని “మూగ బాంబులతో” అనుమానిత తీవ్రవాదులను ఉద్దేశపూర్వకంగా లక్ష్యంగా చేసుకున్నారు. సోర్సెస్ +972 మ్యాగజైన్తో మాట్లాడింది.
ఈ పరిశోధన అత్యాధునిక AI సాంకేతికత మరియు IDF కమాండర్ల నిశ్చితార్థం యొక్క సడలింపు నియమాలు గాజాలో ప్రమాదకర నిష్పత్తిలో పౌర మరణాలను వేగవంతం చేయడానికి అనేక మార్గాలను వెల్లడిస్తున్నాయి. గత అక్టోబర్లో 1,200 మంది ఇజ్రాయెల్లను చంపిన హమాస్ దాడి తరువాత జరిగిన ఇజ్రాయెల్ ఆపరేషన్లో కనీసం 33,000 మంది పాలస్తీనియన్లు మరణించారు.
“లావెండర్” అని పిలువబడే AI టార్గెటింగ్ సాఫ్ట్వేర్, విస్తృతమైన నిఘా నెట్వర్క్పై ఆధారపడి ఉందని నివేదించబడింది, ఇది ప్రతి గజాన్ నివాసికి 1 నుండి 100 వరకు స్కోర్ను కేటాయించింది, ఇది వారు హమాస్ మిలిటెంట్గా ఉండే అవకాశాన్ని అంచనా వేస్తుంది. సైనికులు ఈ సమాచారాన్ని “వేర్ ఈజ్ డాడీ” అనే సాఫ్ట్వేర్లోకి నమోదు చేస్తారు, ఇది అనుమానిత ఉగ్రవాదులు తమ ఇళ్లకు తిరిగి వచ్చినప్పుడు వారిని అప్రమత్తం చేయడానికి AIని ఉపయోగిస్తుంది.
+972 మ్యాగజైన్లోని మునుపటి నివేదిక సాయుధ సమూహాలు ఉపయోగించే గృహాలను లక్ష్యంగా చేసుకునే “ది గాస్పెల్” అని పిలువబడే ఇలాంటి AI వ్యవస్థ ఉనికిని వెల్లడించింది. రెండు సందర్భాల్లో, +972 మ్యాగజైన్ ఈ హైటెక్ సాధనాల పాత్ర మరియు ప్రభావాన్ని అతిశయోక్తి చేస్తుంది, IDF తెలిపింది.
“కిల్లర్ అల్గోరిథం డూమ్స్డే దృశ్యం ఇప్పటికే గాజాలో ఆడుతోంది” అని ఒబామా పరిపాలనలో నేషనల్ సెక్యూరిటీ కౌన్సిల్లో పనిచేసిన జస్ట్ సెక్యూరిటీ మరియు ఆక్స్ఫర్డ్ విశ్వవిద్యాలయంలో సీనియర్ ఫెలో అయిన బ్రియానా రోసెన్ వాదించారు.
గాజాలో ఇజ్రాయెల్ AIని ఉపయోగించడం, AI యుద్ధాన్ని ఎలా మారుస్తోంది మరియు సైనిక సాంకేతికతను నియంత్రించడానికి U.S. విధాన రూపకర్తలు ఏమి చేయాలనే దాని గురించి తాజా వెల్లడి గురించి రోసెన్ను RS ఇంటర్వ్యూ చేసింది. నేను మీ అభిప్రాయాన్ని అడిగాను. కింది సంభాషణ నిడివి మరియు స్పష్టత కోసం సవరించబడింది.
RS: +972 మ్యాగజైన్లోని ఈ కొత్త నివేదిక గాజాలో AIని ఇజ్రాయెల్ ఎలా ఉపయోగించింది అనే దాని గురించి ఏమి చెబుతుంది?
రోసెన్: ముందుగా ఇది కేవలం +972 పత్రిక కాదని నేను నొక్కి చెప్పాలనుకుంటున్నాను. నిజానికి, IDF స్వయంగా ఈ వ్యవస్థలపై వ్యాఖ్యానించింది. ఈ నివేదిక AI సిస్టమ్ గురించిన కొన్ని వాదనలను అతిశయోక్తి చేసిందని పలువురు పేర్కొన్నప్పటికీ, ఇజ్రాయెల్ స్వయంగా ఈ వాస్తవాలలో కొన్నింటిని ధృవీకరించే అనేక వ్యాఖ్యలు చేసింది. గాజా స్ట్రిప్లో ఇజ్రాయెల్ AIని ఉపయోగించడంతో డిసెంబరు నుండి చూసిన ట్రెండ్ను నివేదిక ధృవీకరిస్తుంది: AI యుద్ధంలో లక్ష్యం చేసే వేగాన్ని పెంచుతోంది మరియు యుద్ధం యొక్క పరిధిని విస్తరిస్తోంది.
IDF స్వయంగా అంగీకరించినట్లుగా, లక్ష్యాన్ని వేగవంతం చేయడానికి ఇది AIని ఉపయోగిస్తుంది మరియు వాస్తవాలు దీనికి మద్దతునిస్తాయి. సంఘర్షణ యొక్క మొదటి రెండు నెలల్లో, ఇజ్రాయెల్ దాదాపు 25,000 లక్ష్యాలపై దాడి చేసింది, ఇది గాజాలో మునుపటి యుద్ధంలో కంటే నాలుగు రెట్లు ఎక్కువ. మరియు వారు గతంలో కంటే ఎక్కువ లక్ష్యాలపై దాడి చేస్తున్నారు. లక్ష్యం వేగాన్ని వేగవంతం చేయడంతో, AI యుద్ధం యొక్క పరిధిని లేదా నిర్మూలన కోసం పని చేసే సంభావ్య లక్ష్యాల సమూహాన్ని కూడా విస్తరిస్తుంది. మునుపెన్నడూ లేని విధంగా వారు యువ కార్యకర్తలను టార్గెట్ చేస్తున్నారు. మునుపటి కార్యకలాపాలు ఇజ్రాయెల్ తెలిసిన పోరాట యోధులను మరియు చట్టబద్ధమైన సైనిక లక్ష్యాలను కోల్పోయేలా చేసింది. అయితే ఈ నివేదికలో.. [shows] ఇక హత్యకు అడ్డంకిగా కనిపించడం లేదు. ఇజ్రాయెల్ యొక్క స్వంత మాటలలో, AI ఒక శక్తి గుణకం వలె పని చేస్తుంది, అంటే ఇది గతంలో IDF తగిన లక్ష్యాలను గుర్తించకుండా నిరోధించే వనరుల పరిమితులను తొలగిస్తుంది. ఇప్పుడు, వారు అలాంటి లక్ష్యాలను సాధించనప్పటికీ, హమాస్తో వారి సంబంధాలు చాలా తక్కువ లేదా ఉనికిలో లేనప్పటికీ, సాధారణంగా వారి మరణం సైనిక లక్ష్యాలపై తక్కువ ప్రభావాన్ని చూపుతుంది కాబట్టి, మీరు గణనీయంగా తక్కువ లక్ష్యాలను కొనసాగించవచ్చు.
సంక్షిప్తంగా, AI కార్యకలాపాల యొక్క టెంపోను పెంచుతోంది మరియు లక్ష్యాల సమూహాన్ని విస్తరిస్తోంది, లక్ష్య ధృవీకరణ మరియు అంతర్జాతీయ చట్టం ద్వారా అవసరమైన ఇతర ముందుజాగ్రత్త బాధ్యతలను తీర్చడం చాలా కష్టతరం చేస్తుంది. ఇవన్నీ పౌరులు తప్పుగా గుర్తించబడటం మరియు పొరపాటుగా లక్ష్యంగా చేసుకునే ప్రమాదాన్ని పెంచుతాయి, ఇది ఇప్పటి వరకు చూసిన తీవ్రమైన పౌర ప్రాణనష్టానికి దోహదం చేస్తుంది.
RS: AI ఆధారిత నిర్ణయం తీసుకోవడంలో మానవులు “ప్రమేయం” కలిగి ఉండాలనే ఆలోచనతో ఇది ఎలా సంబంధం కలిగి ఉంటుంది?
రోసెన్: దీని గురించి నేను నిజంగా ఆసక్తిగా ఉన్నాను. సైనిక AI గురించిన చర్చ చాలా కాలంగా తప్పు సమస్యలపై దృష్టి సారించింది. AI ఇప్పటికే యుద్ధం యొక్క విస్తృతమైన లక్షణం అని గుర్తించకుండా, ప్రాణాంతక స్వయంప్రతిపత్త ఆయుధాల వ్యవస్థలను లేదా “కిల్లర్ రోబోట్లను” నిషేధించడంపై వారు దృష్టి సారించారు. ఇజ్రాయెల్ మరియు యునైటెడ్ స్టేట్స్తో సహా ఇతర దేశాలు ఇప్పటికే AIని సైనిక కార్యకలాపాలలో చేర్చుతున్నాయి. వారు మానవులతో పూర్తిగా “ప్రమేయంతో” బాధ్యతాయుతంగా చేస్తున్నామని చెబుతున్నారు. కానీ నా వద్ద ఉన్నది మరియు ఇక్కడ గాజాలో మనం చూస్తున్నది ఏమిటంటే, మానవులు పూర్తిగా పాల్గొన్నప్పటికీ, యంత్ర నిర్ణయాలపై మానవ సమీక్ష ప్రాథమికమైనది.దాడి చాలా పనికిమాలినది కాబట్టి, అది పౌరులకు తీవ్రమైన హాని కలిగిస్తుంది.
ఈరోజు విడుదల చేసిన నివేదిక, AI సిస్టమ్ ద్వారా ఉత్పత్తి చేయబడిన అవుట్పుట్ యొక్క మానవ ధృవీకరణను కలిగి ఉంది, ఇది కేవలం 20 సెకన్లు పడుతుంది మరియు లక్ష్యం మగ లేదా స్త్రీ కాదా అని నిర్ధారించడానికి గతంలో ఎక్కువ సమయం పట్టింది. తగినంత సమయం ఉందనే వాదన ఉంది. బాంబు దాడికి అనుమతి లభించింది.
నిర్దిష్ట క్లెయిమ్ వాస్తవంగా ఫలించబడిందా లేదా అనే దానితో సంబంధం లేకుండా, AI నుండి ఆటోమేషన్ బయాస్ ప్రమాదం గురించి చాలా విద్యా పరిశోధనలు జరుగుతున్నాయి మరియు అది ఇక్కడ స్పష్టంగా ఉందని నేను భావిస్తున్నాను. ఈ యంత్రం చాలా తెలివైనది మరియు ఈ డేటా స్ట్రీమ్లు మరియు ఇంటెలిజెన్స్ స్ట్రీమ్లన్నింటిని కలిగి ఉన్నందున, మానవులు దాని అవుట్పుట్ను తగినంతగా ప్రశ్నించని ప్రమాదం ఉంది. ఈ ఆటోమేషన్ బయాస్ యొక్క ప్రమాదం ఏమిటంటే, మానవులు లక్ష్యాలను ఆమోదించినప్పటికీ, వారు యంత్రం-ఉత్పత్తి చేసిన డేటాను కలపడం మరియు లక్ష్యాలను చాలా జాగ్రత్తగా పరిశీలించడం కంటే బలాన్ని ఉపయోగించాలనే నిర్ణయాన్ని రబ్బర్ స్టాంప్ చేస్తారు. దీని అర్థం ఇది ఇంకా పూర్తి కాలేదు, మరియు వివరణాత్మకత మరియు గుర్తించదగిన సమస్యల కారణంగా, AI వ్యవస్థలు ఈ అవుట్పుట్లను ఎలా ఉత్పత్తి చేస్తున్నాయో నిజంగా అర్థం చేసుకోవడం మానవులకు ఎప్పటికీ సాధ్యం కాకపోవచ్చు.
చెప్పాలంటే, నా డిసెంబర్ జస్ట్ సెక్యూరిటీ కథనంలో నేను అడిగిన ప్రశ్నల్లో ఇది ఒకటి. విధాన నిర్ణేతలు మరియు ప్రజలు ఇజ్రాయెల్ను ఈ ప్రశ్న అడగాలి: ఈ కార్యకలాపాల కోసం మానవ సమీక్ష ప్రక్రియ వాస్తవానికి ఎలా ఉంటుంది? ఇది కేవలం రబ్బర్ స్టాంపింగ్ మాత్రమే బలాన్ని ఉపయోగించాలనే నిర్ణయమా లేదా తీవ్రమైన పరిశీలన ఉందా?
RS: ఈ సందర్భంలో, IDF నిశ్చితార్థం యొక్క వదులుగా ఉండే నియమాలను ఉపయోగించడం AI యొక్క ప్రభావాన్ని పెంచినట్లు కనిపిస్తోంది. అభివృద్ధి చెందుతున్న సాంకేతికత మరియు దానిని ఎలా ఉపయోగించాలనే దాని గురించి ఆచరణాత్మక విధాన నిర్ణయాల మధ్య ఉన్న సంబంధం గురించి మీరు మాకు మరింత చెప్పగలరా?
రోసెన్: అది మరొక సమస్య. మొదటిది, అంతర్జాతీయ చట్టం యొక్క ఇజ్రాయెల్ యొక్క వివరణ సమస్య ఉంది. కొన్ని మార్గాల్లో, ఇతర రాష్ట్రాలు దామాషా వంటి ప్రాథమిక సూత్రాలను వివరించే విధానం కంటే ఇది చాలా ఎక్కువ అనుమతించదగినది. ఆ పైన, AI వ్యవస్థలు అనివార్యంగా పౌరులకు హాని కలిగించే లోపాలను చేస్తాయి. ఈ తాజా నివేదిక క్లెయిమ్ చేసింది, ఉదాహరణకు, లావెండర్ సిస్టమ్ 10% సమయం తప్పుగా ఉంది. వాస్తవానికి, ఇజ్రాయెల్ వ్యక్తులను హమాస్ తీవ్రవాదులుగా ఎలా వర్గీకరిస్తుందనే దానిపై ఆధారపడి లోపం యొక్క మార్జిన్ మరింత పెద్దదిగా ఉంటుంది.
హమాస్ లేదా పాలస్తీనియన్ ఇస్లామిక్ జిహాద్ కార్యకర్తలు అని ఇజ్రాయెల్ చెప్పుకునే వ్యక్తుల నిర్దిష్ట లక్షణాలను గుర్తించడానికి మరియు ఆ డేటాను మెషీన్లోకి ఫీడ్ చేయడానికి AI సిస్టమ్ డేటాపై శిక్షణ పొందింది. కానీ వారు గుర్తించే లక్షణాలు చాలా విస్తృతంగా ఉంటే? ఉదాహరణకు, ఆయుధాన్ని కలిగి ఉండటం, హమాస్తో అనుబంధించబడిన వారితో వాట్సాప్ గ్రూప్లో భాగం కావడం లేదా తరచుగా కదలడం. దేశమంతటా శరణార్థులు ఉన్నారు. ఇది ఒక పెద్ద ఆందోళన ఎందుకంటే ఈ లక్షణాలు తీవ్రవాదులను గుర్తించడానికి AI సిస్టమ్కి అందించబడితే, సిస్టమ్ ఆ డేటాను కైవసం చేసుకుంటుంది మరియు ఎక్కువ సమయం పౌరులను తప్పుగా గుర్తిస్తుంది.
ఇజ్రాయెల్ అంతర్జాతీయ చట్టాన్ని అనుసరిస్తుందని మరియు ఈ నిర్ణయాలన్నింటిపై మానవ సమీక్ష ఉందని మీరు చెప్పగలరు మరియు అవన్నీ నిజమే కావచ్చు. కానీ మళ్ళీ, ఇది అంతర్జాతీయ చట్టం యొక్క ఇజ్రాయెల్ యొక్క వివరణ. మరియు ఈ యుద్ధంలో ఎవరు పోరాటయోధులుగా పరిగణించబడతారో మరియు ఆ డేటా AI సిస్టమ్లోకి ఎలా అందించబడుతుందో వారు ఎలా నిర్వచించారు. ఈ విషయాలన్నీ కలిసి నిజంగా తీవ్రమైన హాని కలిగించవచ్చు.
మరియు దేశీయ సందర్భాలలో AIతో ఉన్న అన్ని చక్కగా నమోదు చేయబడిన సమస్యలు, అల్గారిథమ్ల యొక్క ప్రాథమిక పక్షపాతాల నుండి భ్రాంతులతో సమస్యల వరకు, యుద్ధంలో నిస్సందేహంగా కొనసాగుతాయి మరియు దాని వేగం కారణంగా మరింత అధ్వాన్నంగా మారతాయి. నిర్ణయం తీసుకోవడం. వీటిలో ఏదీ చాలా జాగ్రత్తగా సమీక్షించబడదు. ఉదాహరణకు, గాజా స్ట్రిప్లో ఇజ్రాయెల్ విస్తృతమైన నిఘా వ్యవస్థలను ఏర్పాటు చేసిందని మాకు తెలుసు మరియు ఈ టార్గెటింగ్ అవుట్పుట్లకు సహకరించడానికి ఈ డేటా అంతా AI సిస్టమ్లకు అందించబడుతుంది. ఈ సిస్టమ్లలోని అంతర్లీన పక్షపాతాలు తుది లక్ష్య అవుట్పుట్లో దోషాలను సమ్మిళితం చేస్తాయి. మానవ సమీక్ష పనికిరానిది అయితే, పరిణామాలు పౌరులకు తీవ్ర హాని కలిగిస్తాయి. అది మనం చూసింది.
RS: స్వయంచాలక మరియు ప్రాణాంతక డ్రోన్ల సమూహాలతో సహా అనేక సైనిక అనువర్తనాల కోసం యునైటెడ్ స్టేట్స్ AI పట్ల ఆసక్తిని కలిగి ఉంది. అమెరికన్ విధాన రూపకర్తలు ఈ సాంకేతికతను ఎలా సంప్రదించాలి అనే దాని గురించి ఇజ్రాయెల్ అనుభవం మనకు ఏమి చెబుతుంది?
రోసెన్: ఇంటెలిజెన్స్ మరియు సైనిక కార్యకలాపాలు రెండింటిలోనూ AIని ఉపయోగించడం గురించి U.S. విధాన రూపకర్తలు చాలా జాగ్రత్తగా ఉండాలని ఇది చూపిస్తుంది. వైట్ హౌస్, డిపార్ట్మెంట్ ఆఫ్ డిఫెన్స్ మరియు ఇతర ఏజెన్సీలు బాధ్యతాయుతమైన AI గురించి అనేక ప్రకటనలు చేశాయి, ముఖ్యంగా సైనిక సందర్భంలో. అయితే, ఇదంతా సూత్రాల స్థాయిలో మాత్రమే.
సైనిక AI యొక్క బాధ్యతాయుతమైన ఉపయోగం కోసం ఈ విస్తృత సూత్రాలు ఆచరణలో ఎలా పనిచేస్తాయనే దానిపై ఇది ఆధారపడి ఉంటుంది. వాస్తవానికి, యునైటెడ్ స్టేట్స్ బహిరంగంగా ఈ సాధనాలపై ఆధారపడడాన్ని మనం ఇంకా చూడలేదు. తాకిడి. కానీ ఇది ఖచ్చితంగా వస్తోంది మరియు గాజాలో ఏమి జరుగుతుందో అన్ని పాఠాలను నేర్చుకోవడమే కాకుండా, సైనిక AI యొక్క బాధ్యతాయుతమైన ఉపయోగం కోసం ఈ విస్తృత సూత్రాలను అమలు చేయడానికి యునైటెడ్ స్టేట్స్ ఈ సమయాన్ని తీసుకుంటోంది. AIని సాంఘికీకరించడంలో మేము చాలా చురుకుగా ఉండాలి. ఇతర దేశాల మధ్య. సైనిక AI కోసం ఈ సూత్రాలకు సైన్ అప్ చేయడంలో మేము ప్రపంచానికి నాయకత్వం వహిస్తున్నాము. కొంత విజయం సాధించినప్పటికీ, పురోగతి చాలా నెమ్మదిగా ఉంది. అదే ఇప్పుడు అత్యంత అవసరం.
మీ సైట్లోని కథనం నుండి
వెబ్లో సంబంధిత కథనాలు
[ad_2]
Source link
