AI రెగ్యులేటరీ విధానాలను రూపొందించేటప్పుడు “ప్రపంచంలో ఇంకా గమనించని” AI నష్టాలను చట్టసభ సభ్యులు పరిగణించాలని AI మార్గదర్శకుడు FEI-FEI LI చేత సహనమైన కాలిఫోర్నియాకు చెందిన కాలిఫోర్నియాకు చెందిన విధాన బృందం ఒక కొత్త నివేదికలో.
ది 41 పేజీల మధ్యంతర నివేదిక మంగళవారం విడుదలైన ఫ్రాంటియర్ AI మోడళ్లపై జాయింట్ కాలిఫోర్నియా పాలసీ వర్కింగ్ గ్రూప్ నుండి వచ్చింది, ఈ ప్రయత్నం గవర్నర్ గావిన్ న్యూసమ్ తరువాత నిర్వహించింది కాలిఫోర్నియా యొక్క వివాదాస్పద AI సేఫ్టీ బిల్లు, SB 1047 యొక్క అతని వీటో. న్యూసమ్ అది కనుగొంది SB 1047 గుర్తును కోల్పోయిందిశాసనసభ్యులకు తెలియజేయడానికి AI నష్టాలను మరింత విస్తృతంగా అంచనా వేయడం యొక్క అవసరాన్ని అతను గత సంవత్సరం అంగీకరించాడు.
ఈ నివేదికలో, లి, సహ రచయితలు యుసి బర్కిలీ కాలేజ్ ఆఫ్ కంప్యూటింగ్ డీన్ జెన్నిఫర్ చాయేస్ మరియు అంతర్జాతీయ శాంతి అధ్యక్షుడు మరియానో-ఫ్లోరెంటినో క్యూల్లార్ కోసం కార్నెగీ ఎండోమెంట్, ఓపెనాయ్ వంటి సరిహద్దు AI ల్యాబ్లు నిర్మిస్తున్న సరిహద్దును పెంచే చట్టాలకు అనుకూలంగా వాదించారు. సైద్ధాంతిక స్పెక్ట్రం నుండి పరిశ్రమ వాటాదారులు దాని ప్రచురణకు ముందు నివేదికను సమీక్షించారు, వీటిలో ట్యూరింగ్ అవార్డు గ్రహీత యోషువా బెంజియో వంటి బలమైన AI భద్రతా న్యాయవాదులు మరియు డేటాబ్రిక్స్ సహ వ్యవస్థాపకుడు అయాన్ స్టోకా వంటి SB 1047 కు వ్యతిరేకంగా వాదించిన వారు ఉన్నారు.
నివేదిక ప్రకారం, AI వ్యవస్థలు ఎదుర్కొంటున్న ఈ నవల AI మోడల్ డెవలపర్లను వారి భద్రతా పరీక్షలు, డేటా సముపార్జన పద్ధతులు మరియు భద్రతా చర్యలను బహిరంగంగా నివేదించమని బలవంతం చేసే చట్టాలు అవసరం. AI కంపెనీ ఉద్యోగులు మరియు కాంట్రాక్టర్ల కోసం విస్తరించిన విజిల్బ్లోయర్ రక్షణలతో పాటు, ఈ కొలమానాలు మరియు కార్పొరేట్ విధానాల యొక్క మూడవ పార్టీ మూల్యాంకనాల చుట్టూ పెరిగిన ప్రమాణాల కోసం నివేదిక వాదించింది.
లి మరియు ఇతరులు. సైబర్టాక్లను నిర్వహించడానికి, జీవ ఆయుధాలను సృష్టించడానికి లేదా ఇతర “విపరీతమైన” బెదిరింపులను తీసుకురావడానికి AI యొక్క సామర్థ్యం కోసం “అసంపూర్తిగా ఉన్న సాక్ష్యాలు” రాయండి. అయినప్పటికీ, AI విధానం ప్రస్తుత నష్టాలను పరిష్కరించడమే కాకుండా, తగినంత భద్రత లేకుండా సంభవించే భవిష్యత్తు పరిణామాలను ate హించాలని వారు వాదించారు.
“ఉదాహరణకు, విస్తృతమైన హాని కలిగిస్తుందని మరియు అది విస్తృతమైన హాని కలిగిస్తుందని విశ్వసనీయంగా అంచనా వేయడానికి మేము అణ్వాయుధ (పేలుడు) ను గమనించాల్సిన అవసరం లేదు” అని నివేదిక పేర్కొంది. “చాలా విపరీతమైన నష్టాల గురించి ulate హించిన వారు సరైనది అయితే – మరియు అవి అవుతాయా అని మాకు అనిశ్చితంగా ఉంటే – అప్పుడు ఈ ప్రస్తుత క్షణంలో సరిహద్దు AI లో నిష్క్రియాత్మకత కోసం వాటా మరియు ఖర్చులు చాలా ఎక్కువ.”
AI మోడల్ అభివృద్ధి పారదర్శకతను పెంచడానికి రెండు వైపుల వ్యూహాన్ని నివేదిక సిఫార్సు చేస్తుంది: నమ్మండి కానీ ధృవీకరించండి. AI మోడల్ డెవలపర్లు మరియు వారి ఉద్యోగులకు ప్రజల ఆందోళన ఉన్న ప్రాంతాలపై నివేదించడానికి మార్గాలు అందించాలి, అంతర్గత భద్రతా పరీక్ష వంటి నివేదిక పేర్కొంది, అదే సమయంలో మూడవ పార్టీ ధృవీకరణ కోసం పరీక్షా వాదనలను కూడా సమర్పించాల్సిన అవసరం ఉంది.
నివేదిక జూన్ 2025 లో ముగియని తుది సంస్కరణ, నిర్దిష్ట చట్టాన్ని ఆమోదించలేదు, దీనికి AI విధాన రూపకల్పన యొక్క రెండు వైపులా నిపుణులు మంచి ఆదరణ పొందారు.
ఎస్బి 1047 ను విమర్శిస్తున్న జార్జ్ మాసన్ విశ్వవిద్యాలయంలో AI- కేంద్రీకృత పరిశోధనా సహచరుడు డీన్ బాల్, X పై ఒక పోస్ట్లో ఈ నివేదిక ఉందని చెప్పారు మంచి దశ కాలిఫోర్నియా యొక్క AI భద్రతా నియంత్రణ కోసం. గత సంవత్సరం ఎస్బి 1047 ను ప్రవేశపెట్టిన కాలిఫోర్నియా స్టేట్ సెనేటర్ స్కాట్ వీనర్ ప్రకారం ఇది AI భద్రతా న్యాయవాదులకు కూడా విజయం. “మేము శాసనసభలో (2024 లో) ప్రారంభించాము AI పాలన చుట్టూ అత్యవసర సంభాషణలపై నివేదిక రూపొందించబడిందని వీనర్ ఒక పత్రికా ప్రకటనలో చెప్పారు.
ఈ నివేదిక SB 1047 మరియు వీనర్ యొక్క ఫాలో-అప్ బిల్లు యొక్క అనేక భాగాలతో సమలేఖనం చేసినట్లు కనిపిస్తుంది, ఎస్బి 53భద్రతా పరీక్షల ఫలితాలను నివేదించడానికి AI మోడల్ డెవలపర్లు అవసరం. విస్తృత అభిప్రాయాన్ని తీసుకుంటే, ఇది AI భద్రతా వ్యక్తుల కోసం చాలా అవసరమైన విజయం అనిపిస్తుంది, గత సంవత్సరంలో ఎవరి ఎజెండా భూమిని కోల్పోయింది.