Sztuczna inteligencja dzisiaj: czym jest szum i co jest prawdziwe?

Kup czasopismo, przejrzyj blogi techniczne lub po prostu porozmawiaj ze swoimi rówieśnikami na konferencji branżowej. Szybko zauważysz, że prawie wszystko, co wychodzi ze świata technologii, wydaje się mieć w sobie jakiś element sztucznej inteligencji lub uczenia maszynowego. Sposób, w jaki mówi się o sztucznej inteligencji, zaczyna brzmieć prawie jak propaganda. Oto jedyna prawdziwa technologia, która może zaspokoić wszystkie Twoje potrzeby! AI jest tutaj, aby nas wszystkich uratować!

Chociaż prawdą jest, że możemy robić niesamowite rzeczy dzięki technikom opartym na sztucznej inteligencji, generalnie nie urzeczywistniamy pełnego znaczenia terminu „inteligencja”. Inteligencja oznacza system, z którym ludzie mogą prowadzić twórczą rozmowę - system, który ma pomysły i może opracowywać nowe. Chodzi o terminologię. „Sztuczna inteligencja” dzisiaj powszechnie opisuje realizację niektórych aspektów ludzkich zdolności, takich jak rozpoznawanie obiektów lub mowy, ale z pewnością nie cały potencjał ludzkiej inteligencji.

Dlatego „sztuczna inteligencja” nie jest prawdopodobnie najlepszym sposobem opisania „nowej” technologii uczenia maszynowego, której używamy dzisiaj, ale ten pociąg opuścił stację. W każdym razie, chociaż uczenie maszynowe nie jest jeszcze synonimem inteligencji maszynowej, z pewnością stało się potężniejsze, bardziej wydajne i łatwiejsze w użyciu. Sztuczna inteligencja - czyli sieci neuronowe lub głębokie uczenie się, a także „klasyczne” uczenie maszynowe - wreszcie jest na najlepszej drodze, aby stać się standardową częścią zestawu narzędzi analitycznych.

Teraz, gdy jesteśmy już w trakcie rewolucji (a raczej ewolucji) sztucznej inteligencji, ważne jest, aby przyjrzeć się, w jaki sposób koncepcja sztucznej inteligencji została dokooptowana, dlaczego i co będzie oznaczać w przyszłości. Zanurzmy się głębiej, aby zbadać, dlaczego sztuczna inteligencja, nawet jej nieco źle zinterpretowana wersja, przyciągnęła obecny poziom uwagi.

Obietnica AI: dlaczego teraz?

W obecnym cyklu szumów sztuczna inteligencja lub uczenie maszynowe są często przedstawiane jako stosunkowo nowe technologie, które nagle dojrzały, dopiero niedawno przeszły od etapu koncepcji do integracji w aplikacjach. Istnieje ogólne przekonanie, że tworzenie samodzielnych produktów do uczenia maszynowego miało miejsce dopiero w ciągu ostatnich kilku lat. W rzeczywistości ważne osiągnięcia w dziedzinie sztucznej inteligencji nie są nowe. Dzisiejsza sztuczna inteligencja jest kontynuacją postępów osiągniętych w ciągu ostatnich kilku dekad. Zmiana, powody, dla których sztuczna inteligencja pojawia się w tak wielu innych miejscach, nie dotyczy samych technologii AI, ale technologii, które je otaczają, a mianowicie generowania danych i mocy obliczeniowej.

Nie będę Cię nudził cytowaniem, ile zettabajtów danych wkrótce będziemy przechowywać (ile i tak zer ma zettabajt?). Wszyscy wiemy, że nasza zdolność do generowania i gromadzenia danych rośnie fenomenalnie. Jednocześnie zaobserwowaliśmy zadziwiający wzrost dostępnej mocy obliczeniowej. Przejście z procesorów jednordzeniowych na wielordzeniowe, a także rozwój i przyjęcie jednostek przetwarzania grafiki ogólnego przeznaczenia (GPGPU) zapewniają wystarczającą moc do głębokiego uczenia. Nie musimy już nawet zajmować się obliczeniami wewnętrznymi. Możemy po prostu wynająć moc obliczeniową gdzieś w chmurze.

Przy tak dużej ilości danych i dużej ilości zasobów obliczeniowych naukowcy zajmujący się danymi są wreszcie w stanie wykorzystać metody opracowane w ostatnich dziesięcioleciach w zupełnie innej skali. W latach dziewięćdziesiątych wyszkolenie sieci neuronowej do rozpoznawania liczb na dziesiątkach tysięcy przykładów za pomocą odręcznych cyfr zajęło wiele dni. Dziś możemy wytrenować znacznie bardziej złożoną (tj. „Głęboką”) sieć neuronową na dziesiątkach milionów obrazów, aby rozpoznawać zwierzęta, twarze i inne złożone obiekty. Możemy też wdrażać modele uczenia głębokiego, aby zautomatyzować zadania i decyzje w głównych aplikacjach biznesowych, takich jak wykrywanie i prognozowanie dojrzałości produktów lub kierowanie połączeń przychodzących.

Może to brzmieć podejrzanie jak budowanie prawdziwej inteligencji, ale ważne jest, aby zauważyć, że pod tymi systemami po prostu dostrajamy parametry zależności matematycznej, aczkolwiek dość złożonej. Metody sztucznej inteligencji nie są dobre w zdobywaniu „nowej” wiedzy; uczą się tylko z tego, co jest im prezentowane. Innymi słowy, sztuczna inteligencja nie zadaje pytań „dlaczego”. Systemy nie działają jak dzieci, które wytrwale kwestionują swoich rodziców, próbując zrozumieć otaczający ich świat. System wie tylko, czym był karmiony. Nie rozpozna niczego, o czym wcześniej nie był świadomy.

W innych, „klasycznych” scenariuszach uczenia maszynowego ważne jest, aby znać nasze dane i mieć pojęcie o tym, jak chcemy, aby system znajdował wzorce. Na przykład wiemy, że rok urodzenia nie jest przydatnym faktem o naszych klientach, chyba że przeliczymy tę liczbę na wiek klienta. Wiemy również o wpływie sezonowości. Nie powinniśmy oczekiwać, że system będzie uczył się wzorców kupowania mody niezależnie od pory roku. Co więcej, możemy chcieć wprowadzić do systemu kilka innych rzeczy, aby dowiedzieć się więcej niż to, co już wie. W przeciwieństwie do uczenia głębokiego ten rodzaj uczenia maszynowego, z którego firmy korzystają od dziesięcioleci, rozwijał się bardziej w stałym tempie.

Ostatnie postępy w sztucznej inteligencji nastąpiły głównie w obszarach, w których naukowcy zajmujący się danymi są w stanie naśladować zdolności rozpoznawania człowieka, takie jak rozpoznawanie obiektów na obrazach lub słów w sygnałach akustycznych. Nauka rozpoznawania wzorców w złożonych sygnałach, takich jak strumienie audio lub obrazy, jest niezwykle potężna - na tyle potężna, że ​​wiele osób zastanawia się, dlaczego nie wszędzie używamy technik głębokiego uczenia. 

Obietnica AI: co teraz?

Przywódcy organizacji mogą pytać, kiedy powinni używać sztucznej inteligencji. Cóż, badania oparte na sztucznej inteligencji poczyniły ogromne postępy, jeśli chodzi o sieci neuronowe rozwiązujące problemy związane z naśladowaniem tego, co ludzie robią dobrze (rozpoznawanie obiektów i rozpoznawanie mowy to dwa najważniejsze przykłady). Gdy ktoś zapyta „Jaka jest dobra reprezentacja obiektu?” i nie potrafię znaleźć odpowiedzi, warto wypróbować model głębokiego uczenia się. Jeśli jednak naukowcy zajmujący się danymi są w stanie skonstruować bogatą semantycznie reprezentację obiektu, wówczas klasyczne metody uczenia maszynowego są prawdopodobnie lepszym wyborem (i tak, warto poświęcić trochę uwagi na próbę znalezienia dobrej reprezentacji obiektu).

W końcu chce się po prostu wypróbować różne techniki w ramach tej samej platformy i nie być ograniczonym wyborem metod przez niektórych dostawców oprogramowania lub niemożnością nadążania za obecnymi postępami w tej dziedzinie. Właśnie dlatego platformy open source są liderami na tym rynku; umożliwiają praktykom łączenie najnowocześniejszych technologii z najnowszymi osiągnięciami.

Idąc naprzód, w miarę jak zespoły dostosowują się do celów i metod wykorzystywania uczenia maszynowego do ich osiągnięcia, głębokie uczenie się stanie się częścią zestawu narzędzi każdego analityka danych. W przypadku wielu zadań dodanie metod uczenia głębokiego do zestawu zapewni dużą wartość. Pomyśl o tym. Będziemy mogli włączyć rozpoznawanie obiektów do systemu, korzystając z wcześniej wyszkolonego systemu sztucznej inteligencji. Będziemy mogli włączyć istniejące komponenty rozpoznawania głosu lub mowy, ponieważ ktoś inny zadał sobie trud zebrania wystarczającej ilości danych i dodania adnotacji. Ale w końcu zdamy sobie sprawę, że głębokie uczenie się, tak jak wcześniej klasyczne uczenie maszynowe, jest tak naprawdę kolejnym narzędziem, którego można użyć, gdy ma to sens.

Obietnica AI: co dalej?

Jedną z blokad drogowych, które pojawią się, tak jak dwie dekady temu, jest ekstremalna trudność, z jaką napotyka się, próbując zrozumieć, czego nauczyły się systemy sztucznej inteligencji i w jaki sposób opracowują swoje przewidywania. Może to nie mieć krytycznego znaczenia, jeśli chodzi o przewidywanie, czy klientowi może spodobać się określony produkt. Ale pojawią się problemy, jeśli chodzi o wyjaśnienie, dlaczego system wchodzący w interakcje z ludźmi zachowywał się w nieoczekiwany sposób. Ludzie są gotowi zaakceptować „ludzką porażkę” - nie oczekujemy od ludzi doskonałości. Ale nie zaakceptujemy awarii ze strony systemu sztucznej inteligencji, zwłaszcza jeśli nie potrafimy wyjaśnić, dlaczego zawiódł (i naprawić).

Gdy poznamy głębsze uczenie się, zdamy sobie sprawę - podobnie jak w przypadku uczenia maszynowego dwie dekady temu - że pomimo złożoności systemu i ilości danych, na których został on przeszkolony, zrozumienie wzorców jest niemożliwe bez wiedzy dziedzinowej. Rozpoznawanie mowy działa równie dobrze, ponieważ często możemy wypełnić lukę, znając kontekst bieżącej rozmowy.

Dzisiejsze systemy sztucznej inteligencji nie mają tak głębokiego zrozumienia. To, co teraz widzimy, to płytka inteligencja, zdolność naśladowania izolowanych ludzkich zdolności rozpoznawania, a czasami przewyższają ludzi w tych izolowanych zadaniach. Przeszkolenie systemu na miliardach przykładów to tylko kwestia posiadania danych i uzyskania dostępu do wystarczających zasobów obliczeniowych - już nie jest to kwestia zerwania umowy.

Są szanse, że użyteczność sztucznej inteligencji ostatecznie spadnie gdzieś poza propagandę „ratowania świata”. Być może wszystko, co otrzymamy, to niesamowite narzędzie dla praktyków, dzięki któremu będą mogli wykonywać swoją pracę szybciej i lepiej.

Michael Berthold jest prezesem i współzałożycielem KNIME, firmy zajmującej się analizą danych typu open source. Ma ponad 25-letnie doświadczenie w nauce o danych, pracując w środowisku akademickim, ostatnio jako profesor zwyczajny na Uniwersytecie w Konstanz (Niemcy), a wcześniej na Uniwersytecie Kalifornijskim (Berkeley) i Carnegie Mellon oraz w przemyśle w Intel Neural Network Group, Utopy i Tripos. Michael obszernie publikował na temat analizy danych, uczenia maszynowego i sztucznej inteligencji. Obserwuj Michaela na  Twitterze , LinkedIn i blogu KNIME .   

-

New Tech Forum to miejsce, w którym można badać i omawiać pojawiające się technologie dla przedsiębiorstw na niespotykaną dotąd skalę i dogłębnie. Wybór jest subiektywny, oparty na naszym wyborze technologii, które uważamy za ważne i najbardziej interesujące dla czytelników. nie przyjmuje marketingowych materiałów reklamowych do publikacji i zastrzega sobie prawo do edycji wszystkich przesłanych treści. Wszelkie zapytania należy kierować na  adres [email protected] .