Przejdź do głównej zawartości

AI ułatwia własne przejścia na rynku pracy

 AI ułatwia własne przejścia na rynku pracy

Smartfon wyświetla ikony dużych programów sztucznej inteligencji opartych na modelu językowym.

Na liście zagrożeń egzystencjalnych stwarzanych przez społeczeństwo post-niedoborowe oparte na sztucznej inteligencji dostępność i równość to podstawowe obawy badaczy i etyków.

Bez kontekstu łatwo naiwnie przyjąć takie obawy jako wiarygodne prognozy. Można równie łatwo odrzucić te obawy jako bezwartościowe sygnały cnoty. 

Jednak z nieco szerszego kontekstu staje się jasne, że obawy te nie są bezpodstawne. Istnieje jednak rozwiązanie tych potencjalnych problemów tam, gdzie najmniej się tego spodziewamy: sama sztuczna inteligencja.

Porozmawiajmy o stronniczości.

Obawy związane z „stronniczą sztuczną inteligencją” można podzielić na dwa rodzaje: stronniczość w tworzeniu modelu (dane, które zawierają błędy lub je odzwierciedlają) oraz stronniczość we wdrażaniu modelu (kto uzyskuje dostęp i jak z nim wchodzi w interakcję). Obecnie interesuje nas ostateczny błąd: w jaki sposób użytkownicy mogą czerpać wartość z wysoce inteligentnej, powszechnie dostępnej, dostosowanej sztucznej inteligencji. 

Zakładamy, że bezstronne stworzenie modelu nie stanowi problemu, co odzwierciedla obecny stan rzeczy. Łagodzenie stronniczości w tworzeniu modeli nie ma charakteru politycznego i nie jest w praktyce traktowane jako takie. Modele potrzebują przydatnych danych, aby generować przydatne wyniki dla wykorzystujących je ludzi: laboratoria sztucznej inteligencji analizują dane na podstawie jakości, której kryteria mają charakter polityczny . 

Zakładamy również, że „wyrównanie modelu” na poziomie po treningu jest rozwiązane. Obecnie jest to problem. 

Badacze uczenia maszynowego skupiają się na maksymalizacji ogólnych możliwości nowych modeli, podczas gdy osoby zajmujące się produktami i projektowaniem wprowadzanymi na rynek skupiają się na wykorzystaniu tych możliwości w sposób zgodny z biznesem, łagodzący ryzyko i minimalizujący kontrowersje. Mówiąc prościej, wdrożenie „sprawiedliwego” produktu, takiego jak Gemini firmy Google, nie jest odzwierciedleniem podstawowego modelu, ale sposobem, w jaki firma decyduje się na jego komercjalizację w sposób zgodny z nim. 

Czy powinniśmy się martwić, że podejmowanie decyzji o „minimalizacji ryzyka” jest skoncentrowane w rękach nielicznych? Oczywiście, ale to temat na inny czas.

Skupiamy się tutaj na rozważeniu, czy przeciętny człowiek będzie przygotowany do korzystania z wszechobecnego produktu sztucznej inteligencji przyszłości: takiego, który będzie bezpłatny, powszechnie dostępny i niezwykle potężny.

Obawa jest następująca: technologia jest tak potężna, jak wartość, jaką użytkownicy z niej czerpią. Jeśli potężna nowa technologia jest zbyt skomplikowana lub czasochłonna, aby mogła zostać przyjęta przez masy, nie będą w stanie jej przyjąć. Dlatego nie jest trudno wyobrazić sobie przyszłość AI, w której moc tych technologii przypada tylko dobrze wykształconym pracownikom wiedzy, odpowiednio wyposażonym do jej wykorzystania. Tym, którzy już mają przewagę na wiele sposobów.

Pewien kontekst: w Stanach Zjednoczonych skrajne ubóstwo – osoby żyjące za mniej niż 2,15 dolara dziennie – w zasadzie nie istnieje. Dane za rok 2021 z Platformy Banku Światowego ds. Ubóstwa i Nierówności podają 0,25 proc. Według US Census Bureau , nawet według standardów krajowych odsetek Amerykanów żyjących poniżej progu ubóstwa spadł z 15,1% w 1993 r. do 11,5% w 2023 r Według Fed z St. Louis nie tylko mniej Amerykanów jest biednych – według wszelkich standardów – ale realny średni dochód gospodarstwa domowego znacznie wzrósł od lat 90.: 59 210 dolarów (1992) i 74 580 dolarów (2022) 

Niezależnie od bezwzględnego poziomu dochodów Amerykanów nie brakuje obaw związanych z nierównością dochodów . Przed pandemią amerykański Indeks Giniego , miara odchylenia rozkładu dochodów od doskonałej równości, wzrósł z lokalnego minimum 38,0 w 1990 r. do absolutnego maksimum 41,5 w 2019 r. Tendencja ta utrzymuje się od połowy XX wieku przy chórze obawy związane z polaryzacją rynku pracy, na którym wysoko wykwalifikowani pracownicy bogacą się, a nisko wykwalifikowani biednieją. Nic więc dziwnego, że rozwój sztucznej inteligencji – złożonego uzupełnienia istniejącej technologii, która jest już niedostępna dla niewykwalifikowanych osób – zwiększa te obawy.

Jednak sam rozwój sztucznej inteligencji powinien złagodzić obawy dotyczące nierównego podziału korzyści. 

W dłuższej perspektywie wystarczająco inteligentna SI będzie powszechnie dostępna. Ten hipotetyczny system będzie wysoce skuteczny, bardziej niż jakikolwiek człowiek, w interpretowaniu poleceń i dostarczaniu wartości każdemu, niezależnie od pochodzenia. Dopóki człowiek ma jakiś interfejs do SI (głos, tekst, impulsy neuronowe), ogólnie inteligentna SI będzie w stanie interpretować i wchodzić w interakcje z każdym człowiekiem, bez utraty informacji. 

Osoby zaniepokojone wpływem sztucznej inteligencji na rynek pracy powinny zdawać sobie sprawę, że spowolnienie lub zaprzestanie rozwoju sztucznej inteligencji bezpośrednio szkodzi dostępności modeli. 

A gdyby AGI nie oferowało tej uniwersalnej dostępności od razu po wyjęciu z pudełka, stanowiłoby to jedynie zachętę dla firmy technologicznej do zbudowania tej możliwości w celu horyzontalnego różnicowania swojego oprogramowania. W międzyczasie jednak AGI nie jest na nas ciąży. Narzędzia sztucznej inteligencji, takie jak ChatGPT, nie są powszechnie dostępne i przyjęte. W jaki sposób można złagodzić to przejście bez pogłębiania istniejących nierówności edukacyjnych i ekonomicznych? AI, oczywiście.

AI, a konkretnie Large Language Models (LLM), ostatnia klasa modeli zasilających produkty podobne do ChatGPT, są zasadniczo silne w, cóż, modelowaniu języka. Może to być język pisany lub mówiony (angielski), język programowania (Python) lub jakikolwiek nowy lub wymyślony język, który można przedstawić i zapisać jako zestaw symboli. LLM są tak skuteczne w tym modelowaniu, że mogą zrekonstruować prawie wymarłe języki, mając tylko 100 pisemnych przykładów .

„Podpowiadające” LLM — interfejs, za pomocą którego kierujemy produktami takimi jak ChatGPT w celu uzyskania użytecznych wyników — to po prostu kolejny język. Podobnie jak interpretujemy niepoprawne gramatycznie żądania sfrustrowanego malucha lub niezrozumiałe polecenia szczekającego psa, LLM mogą działać jako interpretatorzy „języka podpowiedzi” w sposób, który w najbliższej przyszłości uczyni je powszechnie dostępnymi. Nie powinno dziwić, że LLM są bardzo skuteczne w zachęcaniu siebie lub innych modeli, biorąc pod uwagę przykłady doskonałego podpowiadania. Ta funkcja zwiększa dostępność, zdejmując z użytkownika ciężar nauki „nowego języka” i umieszczając go w systemie, którego używa do interakcji z modelem.

Nie powinno dziwić, że paradoksalnie ograniczający i otwarty charakter LLM – czego można wymagać od czegoś, co rzekomo może wszystko? — sprawia, że ​​korzystanie z niego jest trudne dla większości ludzi. Duża część tego problemu polega na tym, że ludzie nie wiedzą, jak uzyskać prawidłowe wyniki. Jeszcze niedawno wyszukiwarki takie jak Google nie były rozumiane przez masy, co zmuszało ludzi poprzez doświadczenie do nauczenia się, jak prawidłowo „googlować” strony internetowe. Przesyłanie zapytania wyszukiwania jest podobnie nowym językiem, którego należy się nauczyć, podobnie jak monitowanie o model języka. I tak jak można zapytać Google „jak korzystać z Google?”, można zapytać LLM „jak wyświetlić pytanie LLM”? Albo jeszcze lepiej, firma budująca doświadczenie podobne do ChatGPT mogłaby konkurować na rynku z oprogramowaniem, które rozumie tę ukrytą potrzebę użytkownika i skutecznie ją zaspokaja.

W obecnej formie AI jest funkcjonalnie zdolna do powszechnej dostępności. W praktyce już widzimy obecne ograniczenia możliwości interpretacyjnych modelu, czego można się było spodziewać. Ale każdy, kto martwi się, że ta luka będzie rosła z czasem, nie musi się martwić: kompetencja modelu jest pozytywnie powiązana z dostępnością.

Komentarze

Popularne posty z tego bloga

Błyskawica w Operacji „Pedestal”,czyli największa bitwa morska w ochronie konwoju na Maltę w II Wojnie Światowej.

Jak to widzą w Ameryce. Czy niższa inflacja zatrzyma podwyżki stóp?

DOGE poważnie podchodzi do wojny z państwem administracyjnym