Google's dystopische onderzoekscensuur, verdraaiing van kennis

YouTube
Deel dit verhaal!
De AI van Google is kapot omdat het de vooroordelen van zijn makers weerspiegelt. Dat is gevaarlijk. Erger nog, de legale menigte heeft de wagons omcirkeld om de reputatie van Google te beschermen en zijn tekortkomingen te verbergen. Het resultaat? Onderzoekspapieren worden gecensureerd door advocaten die weinig weten over wat ze censureren. ⁃ TN-editor

In de nasleep van het ontslag van Timnit Gebru en andere opmerkelijke AI-onderzoekers bij Google, cirkelden Alphabet's rond de wagons en pleitten. Er komen rapporten uit Mountain View waarin teams van advocaten worden afgebeeld die wetenschappelijk onderzoek censureren en optreden als niet nader genoemde medewerkers en peer-reviewers.

Meest recentelijk is Business Insider erin geslaagd om: interview  verschillende onderzoekers die een verrassend en somber beeld schetsten van hoe het is om te proberen onderzoek te doen onder zo'n antiwetenschappelijk regime.

Volgens het artikel zei een onderzoeker:

Je hebt tientallen advocaten – ongetwijfeld hoogopgeleide advocaten – die niettemin eigenlijk heel weinig over deze technologie weten … en ze werken zich een weg door je onderzoek als Engelse studenten die een gedicht voorlezen.

Het probleem hier is dat Google onderzoek niet censureert om bijvoorbeeld te voorkomen dat zijn geheimen naar buiten komen. De advocaten richten zich op wetenschappelijk onderzoek waardoor het bedrijf er slecht uitziet.

De hierboven geciteerde persoon voegde eraan toe dat ze het specifiek hadden over het schrappen van verwijzingen naar "eerlijkheid" en "vooringenomenheid" en dat wetenschappers te horen kregen dat ze de resultaten van hun werk moesten veranderen. Het is niet alleen onethisch, het is ook ongelooflijk gevaarlijk.

De thee: de AI van Google is kapot. Het is misschien een bedrijf van een biljoen dollar en de meest geavanceerde AI-outfit op aarde, maar de algoritmen zijn bevooroordeeld. En dat is gevaarlijk.

Het maakt niet uit hoe je het snijdt, de AI van Google werkt niet zo goed voor mensen die niet lijken op de overgrote meerderheid van de werknemers van Google (blanke gasten) als voor mensen die dat wel doen. Van zoeken samensmelting van zwarte mensen en dieren naar de algoritmen die de camera op de Pixel 6 laten draaien onvermogen om niet-blanke huidtinten goed te verwerken, zijn de machine learning-problemen van Google goed gedocumenteerd.

Dit is een groot probleem en niet eenvoudig op te lossen. Stel je voor dat je een auto bouwt die niet zo goed werkte voor zwarte mensen en vrouwen als voor blanke mannen, 200 miljoen verkocht, en dan leerden mensen langzaam dat hun auto racistisch was.

Er zouden veel gevoelens en emoties zijn over wat dat zou betekenen.

De huidige situatie van Google lijkt daar veel op. Haar producten zijn overal. Het kan Search niet zomaar terugroepen of Google Ads een paar dagen in de wacht zetten, terwijl het de hele wereld van deep learning heroverweegt om vooringenomenheid uit te sluiten. Waarom niet de wereldhonger oplossen en puppy's onsterfelijk maken terwijl ze toch bezig zijn?

Dus wat doe je als je een van de rijkste bedrijven ter wereld bent en je stuit op een waarheid die zo verschrikkelijk is dat het bestaan ​​ervan je model slecht doet lijken?

Je doet wat grote tabak deed. U vindt mensen die bereid zijn te zeggen wat in het belang van uw bedrijf is en u gebruikt ze om te voorkomen dat mensen de waarheid vertellen over hun onderzoek.

De National Institutes of Health hebben in 2007 onderzoek gepubliceerd waarin de rol van advocaten wordt beschreven tijdens de grote juridische strijd om tabak van de afgelopen decennia.

In de krant, getiteld "Advocaten in de tabaksindustrie als ziektevector”, schrijven de onderzoekers de verspreiding van ziekten die verband houden met langdurig tabaksgebruik toe aan de tactieken die worden gebruikt door branchejuristen.

Enkele belangrijke punten uit de krant zijn:

  • Ondanks hun verplichting om dit te doen, verzuimden tabaksfabrikanten vaak onderzoek naar productveiligheid uit te voeren of, wanneer er onderzoek werd gedaan, de resultaten niet te verspreiden onder de medische gemeenschap en het publiek.
  • Advocaten van tabaksbedrijven zijn betrokken geweest bij activiteiten die weinig of niets te maken hebben met de rechtspraktijk, waaronder het peilen en proberen te beïnvloeden van de overtuigingen van bedrijfswetenschappers, het doorlichten van intern wetenschappelijk onderzoek en het instrueren van interne wetenschappers om potentieel schadelijke resultaten niet te publiceren .
  • Daarnaast hebben bedrijfsjuristen stappen ondernomen om advocaat-cliëntprivileges en werkproductdekking te creëren om hun cliënten te helpen bij het beschermen van gevoelige documenten tegen openbaarmaking, zijn zij betrokken geweest bij het verbergen van dergelijke documenten en hebben zij procestactieken toegepast die succesvolle rechtszaken grotendeels hebben voorkomen tegen hun klantenbedrijven.

Lees hier het hele verhaal ...

 

Over de editor

Patrick Wood
Patrick Wood is een toonaangevende en kritische expert op het gebied van duurzame ontwikkeling, groene economie, Agenda 21, 2030 Agenda en historische technocratie. Hij is de auteur van Technocracy Rising: The Trojan Horse of Global Transformation (2015) en co-auteur van Trilaterals Over Washington, Volumes I en II (1978-1980) met wijlen Antony C. Sutton.
Inschrijven
Melden van
gast

5 Heb je vragen? Stel ze hier.
Oudste
Nieuwste Meest Gestemd
Inline feedbacks
Bekijk alle reacties

[…] Afkomstig van Technocracy News & Trends […]

[…] Afkomstig van Technocracy News & Trends […]

[…] Google's dystopische onderzoekscensuur, verdraaiing van kennis […]

elle

F* Google: een tiranniek bedrijf van criminelen in het globalistische kartel.

[…] Google's Dystopian Research Censuur, Twisting Knowledge (technocratie) […]