Жарнаманы жабу

Технология саласына бірқатар факторлар қауіп төндіреді. Пайдаланушылар, мысалы, зиянды бағдарлама немесе құпиялылықты жоғалтудан қорқады. Бірақ технология саласының ықпалды тұлғаларының пікірінше, біз адам факторының өзі туралы емес, оның жасанды интеллектпен байланысы туралы көп алаңдауымыз керек. Биылғы Давостағы Дүниежүзілік экономикалық форумда бірқатар ірі технологиялық компаниялардың басшылары саланы заңнамалық реттеуге шақырды. Олардың бұлай етуінің себептері қандай?

«Жасанды интеллект - адамзат ретінде біз жұмыс істеп жатқан ең терең нәрселердің бірі. Оның тереңдігі оттан да, электрден де көп», Бұл туралы өткен сәрсенбіде Дүниежүзілік экономикалық форумда Alphabet Inc. бас директоры айтты. Сундар Пичай жасанды интеллектті реттеу жаһандық өңдеу жүйесін қажет ететінін айтты. Microsoft директоры Сатья Наделла мен IBM директоры Джинни Рометти де жасанды интеллектті пайдалануға қатысты ережелерді стандарттауды талап етеді. Наделланың айтуынша, бүгінде, отыз жылдан астам уақыт бұрын АҚШ, Қытай және Еуропалық Одақ үшін жасанды интеллекттің біздің қоғам мен әлем үшін маңыздылығын анықтайтын ережелерді белгілеу қажет.

Жекелеген компаниялардың жасанды интеллектке қатысты өздерінің жеке этика ережелерін орнату әрекеттері бұған дейін тек осы компаниялардың қызметкерлері ғана емес, наразылықтарын тудырған. Мысалы, Google 2018 жылы жаппай қарсылықтан кейін әскери ұшқышсыз ұшқыштардан түсірілген суреттерді талдау үшін технологияны пайдаланатын Project Maven мемлекеттік құпия бағдарламасынан бас тартуға мәжбүр болды. Берлинде орналасқан Stiftung Neue Verantwortung талдау орталығының қызметкері Стефан Хейманн жасанды интеллект төңірегіндегі этикалық қайшылықтарға қатысты ережелерді компаниялардың өзі емес, саяси ұйымдар белгілеуі керек дейді.

Google Home смарт динамигі жасанды интеллектті пайдаланады

Қазіргі жасанды интеллектке қарсы наразылық толқыны бұл уақытты белгілеудің нақты себебі бар. Бірнеше аптадан кейін Еуропалық Одақ тиісті заңнамаға қатысты жоспарларын өзгертуі керек. Бұл, мысалы, денсаулық сақтау немесе көлік сияқты қауіптілігі жоғары секторларда жасанды интеллектті дамытуға қатысты ережелерді қамтуы мүмкін. Жаңа ережелерге сәйкес, мысалы, компаниялар өздерінің AI жүйелерін қалай құратынын ашықтық аясында құжаттауы керек.

Жасанды интеллектке байланысты бұрын да бірнеше жанжалдар пайда болды - олардың бірі, мысалы, Cambridge Analytica ісі. Amazon компаниясында қызметкерлер Alexa цифрлық көмекшісі арқылы пайдаланушыларды тыңдады, ал өткен жылдың жазында Google компаниясының немесе YouTube платформасының он үш жасқа толмаған балалардың деректерін жинауына байланысты тағы да жанжал шықты. ата-анасының келісімінсіз.

Кейбір компаниялар бұл тақырыпта үнсіз отырғанымен, оның вице-президенті Никола Мендельсонның мәлімдемесіне сәйкес, Facebook жақында еуропалық GDPR реттеуіне ұқсас өз ережелерін белгіледі. Мендельсон мәлімдемесінде бұл Facebook-тің жаһандық реттеуге ұмтылуының нәтижесі екенін айтты. Google компаниясының құпиялылыққа жауапты Кит Энрайт Брюссельдегі жақында өткен конференцияда компания қазіргі уақытта жиналуы керек пайдаланушы деректерінің көлемін азайтудың жолдарын іздеп жатқанын айтты. «Бірақ кең таралған мәлімдеме - біз сияқты компаниялар мүмкіндігінше көп деректерді жинауға тырысады», - деді ол. ол одан әрі пайдаланушыларға ешқандай құндылық әкелмейтін деректерді сақтау қауіпті екенін айтты.

Реттеушілер кез келген жағдайда пайдаланушы деректерін қорғауды жете бағаламайтын сияқты. Қазіргі уақытта Америка Құрама Штаттары GDPR-ға ұқсас федералды заңнамамен жұмыс істеуде. Олардың негізінде компаниялар өз деректерін үшінші тұлғаларға беру үшін өз тұтынушыларынан келісім алуы керек еді.

Siri FB

Дерек көзі: Bloomberg

.