Volg ons op RSS

2021-12-29 07:34:36 By : Ms. Helen Sun

De machine die AI begrijptSluit je aan bij gamingleiders, naast GamesBeat en Facebook Gaming, voor hun 2e jaarlijkse GamesBeat & Facebook Gaming Summit |GamesBeat: Into the Metaverse 2 komende 25-27 januari 2022. Lees meer over het evenement.Deze week gingen Facebook-CEO Mark Zuckerberg, Google-CEO Sundar Pichai en Twitter-CEO Jack Dorsey terug naar het Congres, de eerste hoorzitting met Big Tech-managers sinds de opstand van 6 januari, geleid door blanke supremacisten die het leven van wetgevers rechtstreeks bedreigden.Het belangrijkste gespreksonderwerp was de rol die sociale media spelen bij de verspreiding van extremisme en desinformatie.Het einde van de aansprakelijkheidsbeschermingen verleend door sectie 230 van de Communications Decency Act (CDA), desinformatie en hoe technologie de geestelijke gezondheid van kinderen kan schaden, werden besproken, maar kunstmatige intelligentie stond centraal.Alleen al het woord 'algoritme' werd meer dan 50 keer gebruikt.Terwijl eerdere hoorzittingen meer verkennende vragen bevatten en een gevoel kregen van Geek Squad tech repair voldoet aan beleid, stelden wetgevers tijdens deze hoorzitting vragen op basis van bewijs en leken tech-CEO's als vijandige getuigen te behandelen.Vertegenwoordigers citeerden herhaaldelijk een Wall Street Journal-artikel van mei 2020 over een intern Facebook-onderzoek waaruit bleek dat de meerderheid van de mensen die lid worden van extremistische groepen dit doet omdat het aanbevelingsalgoritme van Facebook dat voorstelt.Een recent MIT Tech Review-artikel over het detecteren van focusbias om conservatieve wetgevers te sussen in plaats van desinformatie te verminderen, kwam ook naar voren, aangezien wetgevers herhaaldelijk beweerden dat zelfregulering niet langer een optie was.Vrijwel tijdens de hele meer dan vijf uur durende hoorzitting was er een toon van onverbloemde afkeer en minachting voor uitbuitende bedrijfsmodellen en de bereidheid om verslavende algoritmen aan kinderen te verkopen."Big Tech geeft onze kinderen in wezen een brandende sigaret en hoopt dat ze voor het leven verslaafd blijven", zei vertegenwoordiger Bill Johnson (R-OH).In zijn vergelijking van Big Tech-bedrijven met Big Tobacco - een parallel getrokken op Facebook en een recent AI-onderzoekspaper - citeert Johnson de toenmalige Rep.Henry Waxman (D-CA), die in 1994 verklaarde dat Big Tobacco "vrijgesteld was van de normen van verantwoordelijkheid en aansprakelijkheid die van toepassing zijn op alle andere Amerikaanse bedrijven".Sommige congresleden stelden wetten voor om technologiebedrijven te verplichten om diversiteitsgegevens op alle niveaus van een bedrijf openbaar te rapporteren en om gerichte advertenties te voorkomen die verkeerde informatie naar gemarginaliseerde gemeenschappen, waaronder veteranen, sturen.Rep. Debbie Dingell (D-MI) stelde een wet voor die een onafhankelijke organisatie van onderzoekers en computerwetenschappers zou oprichten om verkeerde informatie te identificeren voordat deze viraal gaat.Verwijzend naar het aanbevelingsalgoritme van YouTube en de bekende neiging om mensen te radicaliseren, introduceerden vertegenwoordigers Anna Eshoo (D-CA) en Tom Malinowski (D-NJ) in oktober de Protecting Americans from Dangerous Algorithms Act om Sectie 230 te wijzigen en rechtbanken toe te staan ​​onderzoek te doen. de rol van algoritmische versterking die tot geweld leidt.Naast de hervorming van sectie 230, was een van de meest populaire oplossingen die wetgevers voorstelden een wet die technologiebedrijven verplichtte om burgerrechtenaudits of algoritme-audits uit te voeren om te presteren.Het zou louterend kunnen zijn om te zien dat tech-CEO's wiens houding door wetgevers wordt beschreven als zelfvoldaan en arrogant, hun verdienste krijgen door niets te doen aan systemische kwesties die mensenlevens en democratie bedreigen, omdat ze liever meer geld verdienen.Maar na de bombastische en tweeledige erkenning van hoe AI mensen kan schaden die donderdag wordt getoond, ligt de druk op Washington, niet op Silicon Valley.Ik bedoel, natuurlijk zullen Zuckerberg of Pichai zich er nog steeds voor moeten verantwoorden wanneer de volgende blanke supremacistische terroristische actie plaatsvindt en het weer rechtstreeks wordt teruggevoerd naar een Facebook-groep of YouTube-indoctrinatie, maar tot op heden hebben wetgevers geen record van het aannemen van ingrijpende wetgeving om het gebruik van algoritmen reguleren.Tweepartijenovereenkomst voor regulering van gezichtsherkenning en gegevensprivacy heeft ook nog niet zijn vruchten afgeworpen met uitgebreide wetgeving.De vermeldingen van kunstmatige intelligentie en machine learning in het Congres zijn ongekend hoog.En in de afgelopen weken heeft een nationaal panel van experts uit de industrie aangedrongen op AI-beleidsmaatregelen om de nationale veiligheidsbelangen van de Verenigde Staten te beschermen, en Google-medewerkers hebben het Congres gesmeekt om strengere wetten aan te nemen om mensen te beschermen die naar voren komen om te onthullen hoe AI wordt gebruikt om mensen te schaden.De details van elke voorgestelde wetgeving zullen onthullen hoe serieus wetgevers zijn om verantwoording af te leggen aan degenen die de algoritmen maken.De vereisten voor diversiteitsrapportage moeten bijvoorbeeld uitsplitsingen bevatten van specifieke teams die met AI werken bij Big Tech-bedrijven.Facebook en Google brengen vandaag diversiteitsrapporten uit, maar die rapporten breken de diversiteit van AI-teams niet af.Testen en overeengekomen normen zijn cruciaal in industrieën waar producten en diensten mensen kunnen schaden.Je kunt geen bouwproject doorbreken zonder een milieueffectrapport, en je kunt geen medicijnen verkopen aan mensen zonder tussenkomst van de Food and Drug Administration, dus je zou waarschijnlijk niet vrijelijk AI moeten kunnen inzetten die miljarden mensen bereikt dat is discriminerend of leurt extremisme om winst te maken.Natuurlijk kunnen verantwoordingsmechanismen die bedoeld zijn om het vertrouwen van het publiek te vergroten, mislukken.Herinner je je Bell, de stad in Californië die regelmatig financiële audits onderging maar toch corrupt bleek te zijn?En algoritme-audits beoordelen de prestaties niet altijd.Zelfs als onderzoekers een neiging om schade aan te richten documenteren, zoals analyse van Amazon's Rekognition of YouTube-radicalisering in 2019 aantoonde, betekent dat niet dat AI vandaag niet in productie zal worden gebruikt.Er komt een soort regulering, maar de onbeantwoorde vraag is of die wetgeving verder gaat dan de oplossingen die tech-CEO's onderschrijven.Zuckerberg sprak zijn steun uit voor federale privacywetgeving, net zoals Microsoft heeft gedaan in gevechten met staatswetgevers die proberen gegevensprivacywetten aan te nemen.Zuckerberg sprak ook enige steun uit voor algoritme-audit als een "belangrijk studiegebied";Facebook voert vandaag echter geen systematische audits van zijn algoritmen uit, hoewel dat wordt aanbevolen door een burgerrechtenaudit van Facebook die afgelopen zomer is voltooid.Vorige week publiceerde het Carr Center van de Harvard University een analyse van de mensenrechteneffectbeoordelingen (HRIA's) die Facebook heeft uitgevoerd met betrekking tot zijn product en aanwezigheid in Myanmar na een genocide in dat land.Uit die analyse bleek dat een HRIA van een derde partij de Rohingya grotendeels weglaat en niet beoordeelt of algoritmen een rol speelden.“Wat is het verband tussen het algoritme en genocide?Dat is de crux ervan.Het VN-rapport beweert dat er een relatie is”, vertelde co-auteur Mark Latonero aan VentureBeat."Ze zeiden dat Facebook in wezen heeft bijgedragen aan de omgeving waarin haatdragende taal werd genormaliseerd en versterkt in de samenleving."Het Carr-rapport stelt dat elk beleid dat evaluaties van de mensenrechten vereist, op zijn hoede moet zijn voor dergelijke rapporten van de bedrijven, omdat ze de neiging hebben om ethiek te wassen en zich te verschuilen achter een laagje mensenrechten due diligence en aansprakelijkheid.Om dit te voorkomen, stellen onderzoekers voor analyses uit te voeren gedurende de levenscyclus van AI-producten en -diensten, en bevestigen dat om de impact van AI te centreren, algoritmen moeten worden beschouwd als sociotechnische systemen die evaluatie door sociale en computerwetenschappers verdienen.Dit is in lijn met eerder onderzoek dat erop aandringt dat AI wordt gezien als een bureaucratie, evenals AI-onderzoekers die werken met kritische rassentheorie."Bepalen of een AI-systeem al dan niet heeft bijgedragen aan een schending van de mensenrechten, is niet duidelijk voor mensen zonder de juiste expertise en methodologieën", luidt het Carr-rapport."Bovendien zouden degenen die HRIA's uitvoeren zonder aanvullende technische expertise zelf geen potentiële wijzigingen in AI-producten en algoritmische processen kunnen aanbevelen om bestaande en toekomstige schade te beperken."Bewezen door het feit dat meerdere leden van het Congres deze week spraken over de volharding van het kwaad in Big Tech, lijken beleidsmakers zich ervan bewust te zijn dat AI mensen kan schaden, van het verspreiden van desinformatie en haat voor winst tot het in gevaar brengen van kinderen, democratie en economische concurrentie.Als we het er allemaal over eens zijn dat Big Tech in feite een bedreiging vormt voor kinderen, concurrerende bedrijfspraktijken en democratie, als democraten en republikeinen niet voldoende actie ondernemen, kunnen het op termijn wetgevers zijn die als onbetrouwbaar worden bestempeld.Stuur voor AI-verslaggeving nieuwstips naar Khari Johnson en Kyle Wiggers - en abonneer je op de AI Weekly-nieuwsbrief en maak een bladwijzer voor The Machine.AWS Activate biedt gratis tools, training en meer voor startups om u te helpen snel te bouwen en snel op te schalen - bovendien kunt u tot $ 100.000 Activate-tegoed ontvangen.Hoor van CIO's, CTO's en andere C-level executives over data en AI-strategieën.© 2021 VentureBeat.Alle rechten voorbehouden.We kunnen cookies en andere persoonlijke informatie verzamelen over uw interactie met onze website.Voor meer informatie over de categorieën persoonsgegevens die we verzamelen en de doeleinden waarvoor we ze gebruiken, kunt u onze Kennisgeving bij Verzameling raadplegen.