Google je pro dočasný zákaz rozpoznávání obličejů, Microsoft se brání
Regulace rozpoznávání obličejů se stává klíčovým sporným bodem mezi největšími světovými technologickými společnostmi.Sundar Pichai, generální ředitel společnosti Alphabet a Google, navrhuje dočasný zákaz, který nedávno navrhla EU, zatímco Brad Smith, vedoucí právního oddělení společnosti Microsoft, před takovým zásahem varuje.
„Myslím, že je důležité, aby to vlády a regulace řešily raději dříve než později a daly tomu rámec,“ řekl Pichai na pondělní konferenci v Bruselu, informuje agentura Reuters. „Může to být okamžitě, ale možná je tu čekací doba, než se skutečně zamyslíme nad tím, jak se to používá … Je na vládách, aby určily směr.“
V rozhovoru zveřejněném minulý týden se však Smith, který zároveň působí jako hlavní právní ředitel Microsoftu, k myšlence moratoria vyjádřil odmítavě.
„Podívejte, můžete se pokusit vyřešit problém sekáčkem na maso nebo skalpelem,“ řekl Smith v rozhovoru pro NPR, když byl dotázán na možný zákaz. „A víte, jestli můžete problém vyřešit způsobem, který umožní, aby se dělaly dobré věci a přestaly se dít špatné věci … to opravdu vyžaduje skalpel. Tohle je mladá technologie. Bude se zlepšovat. Ale jediný způsob, jak ji zlepšit, je vlastně pokračovat v jejím vývoji. A jediný způsob, jak ji dále rozvíjet, je, aby ji používalo více lidí.“
Komentáře obou vedoucích pracovníků přicházejí v době, kdy EU zvažuje pětiletý zákaz používání rozpoznávání obličejů na veřejných místech. V návrhu EU, který minulý týden unikl do tisku a při oficiálním oznámení by se mohl změnit, se uvádí, že dočasný zákaz by poskytl vládám a regulačním orgánům čas na posouzení nebezpečí této technologie.
Po celém světě orgány činné v trestním řízení a soukromé podniky stále častěji používají rozpoznávání obličejů k identifikaci osob na veřejných prostranstvích. Zatímco zastánci tvrdí, že tato technologie pomáhá řešit trestné činy, kritici tvrdí, že její nekontrolované zavádění podkopává občanské svobody a vede k nárůstu diskriminace v důsledku algoritmické zaujatosti.
Rozpoznávání obličejů je klíčovou technologií, kterou používá například čínský stát při represích vůči své muslimské ujgurské menšině, a země prodává stejnou technologii dalším represivním režimům po celém světě. V USA tuto technologii stále častěji využívá policie prostřednictvím malých dodavatelů. Nedávná zpráva deníku New York Times vrhla světlo na systém rozpoznávání obličejů, který dokáže bez souhlasu uživatelů prohledávat 3 miliardy fotografií seškrábaných z webových stránek, jako je Facebook, a který používá více než 600 místních donucovacích orgánů.
Pichaiovy komentáře z tohoto týdne jsou obzvláště pozoruhodné, protože samotný Google odmítá prodávat zákazníkům rozpoznávání obličejů (s odkazem na obavy ze zneužití a masového sledování), ale dříve se o zákaz nezasazoval. V pondělním úvodníku pro Financial Times se Pichai vyslovil pro větší regulaci umělé inteligence.
„nepochybuji o tom, že umělou inteligenci je třeba regulovat,“ napsal. „Společnosti, jako je ta naše, nemohou jen tak vytvořit slibnou novou technologii a nechat tržní síly rozhodovat o tom, jak bude využívána.“
Trh zatím skutečně diktuje pravidla, přičemž velké technologické společnosti zaujímají k této otázce různé postoje. Společnost Microsoft prodává technologii rozpoznávání obličeje, ale sama si stanovila omezení, například povoluje policii používat tuto technologii ve věznicích, ale ne na ulici, a neprodává ji imigračním službám. Amazon horlivě usiluje o partnerství s policií, zejména prostřednictvím svých videozvonků Ring, které podle kritiků poskytují orgánům činným v trestním řízení přístup k masivní crowdsourcované sledovací síti.
Přinejmenším v USA se zdá nepravděpodobné, že by mohl být zaveden celostátní zákaz. Některá americká města, jako například San Francisco a Berkley, tuto technologii nezávisle na sobě zakázala, ale Bílý dům taková opatření označil za příklad přehnané regulace. Vláda naznačila, že chce k regulaci umělé inteligence, včetně rozpoznávání obličejů, přistupovat s volnou rukou ve jménu podpory inovací.
.