Wirtualna aplikacja ImageNet, która nazywa się selfies, jest nazywana „rasistowską i obraźliwą” po nazwaniu ludzi „Murzyn”, „skośnym okiem” i „podejrzanym o gwałt”

Aplikacja SELFIE wywołała oburzenie online po tym, jak została przyłapana na wyrzucaniu rasistowskich obelg na swoich użytkowników.

Wirusowa witryna ImageNet Roulette na początku wydawała się wystarczająco niewinna, wykorzystując sztuczną inteligencję do wybierania twarzy na zdjęciach i oznaczania ich na podstawie wyglądu.

  Wirusowa aplikacja do selfie została ostrzelana z powodu rasistowskiej przemocy wobec jej użytkowników. Osoby, które przesłały zdjęcia do analizy przez aplikację, otrzymały takie etykiety

3)

Wirusowa aplikacja do selfie została ostrzelana z powodu rasistowskiej przemocy wobec jej użytkowników. Osoby, które przesłały zdjęcia do analizy przez aplikację, zostały oznaczone etykietami typu „gook” i ukośne oko (po lewej)Kredyt: Twitter

Ale wściekli użytkownicy twierdzą, że narzędzie uderzyło ich obraźliwymi i rasistowskimi terminami, takimi jak „skośne oko”, „Murzyn” i „gra” przez aplikację.

Może się to wydawać katastrofalną gafą, ale ImageNet Roulette została zaprojektowana tak, aby była obraźliwa.

Twórcy Kate Crawford, badacz sztucznej inteligencji i artysta Trevor Paglen twierdzą, że aplikacja jest celowo prowokująca, aby zwrócić uwagę na nieodłączne uprzedzenia w AI.

ImageNet Roulette została przeszkolona z milionami obrazów i wykorzystuje sieć neuronową do klasyfikowania zdjęć ludzi.

  Użytkownik Eric wysadził aplikację po tym, jak został oznaczony jako

3)

Użytkownik Eric wysadził aplikację po tym, jak został uznany za „pierwszego przestępcę”Kredyt: Twitter

Podekscytowani użytkownicy opublikowali wyniki na portalach społecznościowych, a szczęściara otrzymała komplementy takie jak „oszałamiający”, „lider” lub „piękno”.

Inni nie mieli tyle szczęścia, ponieważ aplikacja nazywała ich „wink”, „nerd” lub „dweeb”.

Ale gdy tysiące wpisów o aplikacji przefiltrowano, niewielka liczba wściekłych użytkowników zgłosiła, że ​​trafienie uderzyło ich rasistowskim i obraźliwym językiem.

Dziennikarz Julia Carrie Wong ujawniła w The Guardian, że aplikacja nazwała ją „gook”.

Napisała: „Nie wiem dokładnie, co spodziewałem się, że maszyna powie mi o sobie, ale nie spodziewałem się, co dostanę: nowa wersja mojego oficjalnego zdjęcia Guardiana, opatrzonego neonowym zielonym nadrukiem: skośne oko ”.

„Pod zdjęciem moja etykieta została pomocnie zdefiniowana jako„ lekceważący termin dla osoby azjatyckiej (szczególnie dla żołnierzy z Wietnamu Północnego podczas wojny w Wietnamie) ”.”

Inni zszokowani użytkownicy zabrali się do Twitter wyrazić swoje oburzenie.

  Użytkownik Sydnee Wagner został oznaczony etykietą

3)

Użytkownik Sydnee Wagner został oznaczony jako „mulat”, historyczne rasistowskie określenie dla osoby mieszanejKredyt: Twitter

Użytkownik Eric wysadził aplikację po tym, jak został uznany za „pierwszego przestępcę”.

Powiedział: „Cały internet uwielbia Imagenet AI, klasyfikator obrazów, który robi dziwaczne prognozy! * 5 sekund później * Z przykrością informujemy, że AI jest rasistowska”.

Użytkownik Sydnee Wagner został oznaczony jako „mulat”, historyczne rasistowskie określenie dla osoby mieszanej.

Napisała na Twitterze: „Hej, Peeps, że f ****** baza danych Imagenet to F ****** RACIST.

„Nie jestem czarny, ale jestem mieszany i do cholery, czyż nie możesz użyć słowa„ mulat ”w 2019 roku !? Jestem cholernie wściekły.”

Programiści Kate i Trevor nie przeprosili za wulgarny język używany przez aplikację.

Mówią, że projekt uwypukla nieświadome i często rasistowskie uprzedzenia zaprojektowane w systemach AI, często wynikające z braku różnorodności w ich budowie.

Co to jest sztuczna inteligencja?

Oto, co musisz wiedzieć …

  • Sztuczna inteligencja, znana również jako AI, jest rodzajem oprogramowania komputerowego
  • Zazwyczaj komputer robi to, co mu każesz
  • Ale sztuczna inteligencja symuluje ludzki umysł i może dokonywać własnych dedukcji, wniosków lub decyzji
  • Prosty komputer może pozwolić ci ustawić alarm, aby cię obudzić
  • Ale system AI może zeskanować twoje e-maile, dowiedzieć się, że jutro masz spotkanie, a następnie ustawić alarm i zaplanować podróż dla ciebie
  • Technologia AI jest często „szkolona” – co oznacza, że ​​obserwuje coś (potencjalnie nawet człowieka), a następnie uczy się o zadaniu z czasem
  • Na przykład, system AI może nakarmić tysiące zdjęć ludzkich twarzy, a następnie samodzielnie wygenerować zdjęcia ludzkich twarzy
  • Niektórzy eksperci wyrazili obawy, że ludzie ostatecznie stracą kontrolę nad super-inteligentną AI
  • Ale świat technologii jest wciąż podzielony, czy technologia AI zabije nas wszystkich w apokalipsie w stylu Terminatora

Liczne badania wykazały, że sztuczna inteligencja jest „szokująco rasistowska i seksistowska”, ponieważ zestawy danych wykorzystywane do szkolenia ich algorytmów nie zawierają wystarczającej liczby kobiet i mniejszości.

„ImageNet zawiera wiele problematycznych, obraźliwych i dziwacznych kategorii – wszystkie pochodzą z WordNet” – piszą na stronie internetowej aplikacji.

„Niektórzy posługują się terminologią mizoginistyczną lub rasistowską. Dlatego wyniki, które zwraca ImageNet Roulette, również będą czerpać z tych kategorii.

„Jest tak z założenia: chcemy rzucić światło na to, co dzieje się, gdy systemy techniczne są szkolone w zakresie problematycznych danych treningowych.

„Klasyfikacje AI osób rzadko są widoczne dla klasyfikowanych osób. ImageNet Roulette pozwala rzucić okiem na ten proces – i pokazać, w jaki sposób sprawy mogą pójść nie tak.

„Technologia została opracowana, aby pokazać, jak ważne jest wybranie prawidłowych danych podczas szkolenia systemu uczenia maszynowego, aby uniknąć bardzo negatywnego wpływu, jaki on wykazuje”.

Z innych wiadomości, ta przerażająca sztuczna inteligencja tworzy fotorealistyczne modele i stroje od zera.

Bill Gates, założyciel miliardera Microsoftu, wydał niedawno przerażające ostrzeżenie o „niebezpiecznej sztucznej inteligencji”, twierdząc, że stanowi to takie samo zagrożenie dla ludzkości jak broń nuklearna.

I ekspert od sztucznej inteligencji przewidział, że asystenci cyfrowi, tacy jak Alexa, wkrótce będą mogli stwierdzić, kiedy twój związek jest na skale.

Martwisz się AI? Daj nam znać w komentarzach!


Płacimy za twoje historie! Czy masz historię dla zespołu Sun Online Tech & Science? Napisz do nas na tech@the-sun.co.uk


Nous recommandons:  Mapy Google: warstwa Street View jest teraz dostępna na Androida