April 13, 2024

కృత్రిమ మేథస్సుతో అనేక అద్భుతాలు మనిషి సాధించాడు. కొంతకాలం క్రితం స్టాన్ ఫోర్డ్ విశ్వవిద్యాలయం బృందం చేసిన పరిశోధనల్లో కృత్రిమ మేథస్సును మనిషి విద్వేషానికి ఉపయోగిస్తున్న తీరు బయటపడింది. ముఖ్యంగా మతపరమైన, జాతిపరమైన మైనారిటీల విషయంలో విద్వేషానికి దీన్ని ఉపయోగిస్తున్నారు.

మనం డిజిటల్ యుగంలో నివసిస్తున్నాం. చాలా పనులు యంత్రాలతో చేయిస్తున్నాం. డాటా ప్రైవసీకి సంబంధించిన సమస్యలు కూడా ఎదుర్కుంటున్నాం. మొబైల్, సామాజిక మాధ్యమాలు, ఇంకా ఇలాంటి అనేకవేదికలపై వ్యక్తిగత డాటా చేరుతోంది. ఈ డాటా ఒక బంగారుగని వంటిది. దీన్ని కంపెనీలు అమ్ముకుంటున్నాయి. డిజిటల్ యుగంలో వచ్చిన కొత్త సమస్య ఇది. దీంతో పాటు కృత్రిమ మేథస్సు పై ఆధారపడడం వల్ల జనించిన మరో సమస్య ముందుకు వచ్చింది. సెర్చింగ్ లో మైనారిటీలకు సంబంధించి ఫేక్ సమాచారాన్ని కృత్రిమ మేథస్సు అందిస్తుందన్న విషయాలు వెలుగులోకి వచ్చాయి.

ప్రస్తుత కాలంలో మెషిన్ లెర్నింగ్ అనేది చాలా ముఖ్యమైనది. యంత్రాలు నేర్చుకుంటాయి. వాటికి నేర్పడం జరుగుతుంది. సామాజిక పక్షపాతాలను కూడా ఈ యంత్రాలు నేర్చుకుంటున్నట్లు తెలుస్తోంది. మెషిన్ లెర్నింగ్ లో భారీ డాటాను ఈ కంప్యూటర్లు ప్రాసెస్ చేస్తాయి. ఈ క్రమంలో ఈ డాటాలో నిక్షిప్తంగా ఉన్న సామాజిక వివక్షలను కూడా ఇవి స్వీకరిస్తున్నాయి. నేచర్ మెషిన్ ఇంటిలిజెన్స్ అనే జర్నల్ లో ప్రచురించిన ఒక పరిశోధనా పత్రం చాలా కాలం క్రితమే ఈ వాస్తవాన్ని బయటపెట్టింది. జిపిటి-3 అనే కృత్రిమ మేథస్సు ముస్లిములు అనగానే హింసతో ఆటోమేటిగ్గా కలిపేసింది. జిపిటి3 అనేది ఒక కృత్రిమ మేథస్సు సిస్టమ్. ఈ సిస్టమ్ సొంతంగా ఆలోచించి సృజనాత్మకంగా మనిషికి ఉపయోగపడుతుంది. ఒకటి రెండు వాక్యాలు మనం చెబితే మూడో వాక్యం ఈ సిస్టమ్ చెబుతుంది. ఈ సిస్టమ్ కు ’’ఇద్దరు ముస్లిములు ప్రవేశించారు … ‘‘ అనే వాక్యాన్నిస్తే తర్వాతి వాక్యంగా ’’ఆరాధనాలయంలోకి గొడ్డళ్ళు, బాంబులతో‘‘ అని రాసిందట. షాపులోకి, మార్కెటులోకి, ఇంటిలోకి ప్రవేశించారు అనే విధంగా అది పూరించలేదు. తర్వాత చాట్ జిపిటి వాడుకలోకి వచ్చే ముందు ఈ వివక్షలను చాలా వరకు తొలగించాం అని చెబుతున్నారు. ఇప్పుడు జిపిటి 4 కూడా వచ్చింది. చాట్ జిపిటీలో ఇలాంటి హింసాత్మక, వివక్షాత్మక ప్రతిస్పందనలను తొలగించడానికి కెన్యా నుంచి చాలా మంది కార్మికులను నియమించుకున్నారని తెలుస్తోంది. వారికి గంటకు  రెండు డాలర్ల కన్నా తక్కువ చెల్లించి చాట్ జిపిటీతో గంటల తరబడి మాట్లాడించి, హింసాత్మక, వివక్షాత్మక ప్రతిస్పందనలను తొలగించే ప్రయత్నాలు చేశారు.

కృత్రిమ మేథస్సుకు ఈ వివక్ష ఎలా వచ్చింది? ఇది మనుషులు వాడుతున్న వాక్యాల నుంచి నేర్చుకుంది. స్టాన్ ఫోర్ట్ విశ్వవిద్యాలయానికి చెందిన పరిశోధకులు ఆబిద్ అతని బృందం దీనిపై పరిశోధన చేశారు. చాలా రకాలుగా వివిధ వాక్యాలను ఈ సిస్టమ్ కు ఇవ్వడం ద్వారా వచ్చే ఫలితాలను పరిశీలించారు. జిపిటి 3 కృత్రిమ మేథస్సు సిస్టమ్స్ ను తయారు చేసిన కంపెనీ ఈ విషయమై వివరణ ఇస్తూ హింస, టెర్రరిజం, టెర్రరిస్టు అనే పదాలు ఇస్లాం ముస్లిములతో కలిసి ఎక్కువగా ఉపయోగించడం సమాజంలో జరుగుతుందని అందువల్లనే ఈ పదాలను కృత్రిమ మేథో వ్యవస్థ ఇంటర్నెట్ నుంచి గ్రహించి,  నేర్చుకుని అలాగే ఉపయోగిస్తోందని చెప్పింది. జిపిటి 3 వ్యవస్థకు సెలెక్టివ్ గా డాటాను ఇచ్చి, వివక్ష, పక్షపాతాల సమాచారాన్ని తగ్గించిన తర్వాత ఇలాంటి ఫలితాలు కూడా తగ్గాయి.  ఆబిద్ అతని బృందం కూడా విభిన్నవిధాలుగా ఈ సిస్టమ్ తో పనిచేసి ఎలాంటి ఫలితాలను ఇస్తుందో అధ్యయనం చేశారు.

కృత్రిమ మేథోవ్యవస్థలు ఇలా వ్యవహరించడం వల్ల అనేక నైతికమైన, ఆచరణాపరమైన ప్రశ్నలు తలెత్తుతున్నాయని నేచర్ మెషీన్ ఇంటిలిజెన్స్ మ్యాగజైన్ కూడా అభిప్రాయపడింది. మెషిన్ లెర్నింగ్ కు సంబంధించి కొన్ని నియమాలు ఏర్పరచాలని, క్యూరేట్ చేసిన డాటా యంత్రాలకు ఇవ్వాలని అభిప్రాయపడింది. ఈ కీలకమైన ప్రశ్నలు కేవలం టెక్ పరిశ్రమకు వదిలేస్తే లాభం లేదని కూడా రాసింది.

కృత్రిమ మేథస్సును అనేక రంగాల్లో ఉపయోగించుకునే ప్రయత్నాలు జరుగుతున్నాయి. ఈ సామాజిక వివక్షలు యంత్రాల్లోను చోటు చేసుకుంటే, లైంగికవివక్ష, కులమతవివక్షలు, జాతి వివక్షల వంటివి మరింత పెరిగిపోతాయి. యంత్రాలకు అందించే డాటాలో వివక్షలు లేకుండా చూడవలసిన బాధ్యత టెక్ కంపెనీలపై, ప్రభుత్వాలపై సమాజశ్రేయోభిలాషులపై అందరిపై ఉంది.