Co myślę o sztucznej inteligencji ChatGPT?

Posted by

W poprzednich dwóch wpisach na blogu opisałem, dlaczego ChatGPT nie może pełnić roli menedżera robota. Moje wnioski są tylko w oparciu o jego obecną, darmową wersję 3,5. Co pokaże przyszłość, zobaczymy. Jednak przeszkody, aby ChatGPT był robotem menedżerem, są fundamentalne i dotyczą braku spójnej ontologii rzeczywistości organizacyjnej i wiedzy o pracy menedżera czerpanej przez mechanizm chata jedynie z książek i Internetu, a nie realnych czynności wykonywanych przez menedżera.

Gdyby ChatGPT był podłączony do narzędzi menedżerskich online, takich jak TransistorsHead.com (http://transistorshead.com/) albo wszystkich aplikacji świata, systemów ERP, SAP itp, to… Ale nie jest, więc robota menedżera z niego nie zrobimy.

Na koniec rozważań o wykorzystaniu tej technologii w zarządzaniu jako inżynier elektronik muszę podzielić się paroma spostrzeżeniami.

Po pierwsze, ChatGPT świetnie sobie radzi z dobrze ustrukturyzowanymi zadaniami, np.:

  • zadania matematyczne – potrafi szybko i zrozumiale dla czytelnika rozwiązać równanie kwadratowe w dziedzinie liczb rzeczywistych, a gdy nie ma rozwiązania, w dziedzinie liczb zespolonych – jest dobrze!
  • przepis na jajecznicę – od teraz będę dodawał do jajecznicy trochę mleka lub śmietany, bardzo smaczna wychodzi według przepisu GPT – jest dobrze!
  • pisanie kodu np. w html – a właściwie w dowolnym języku programowania; na You Tube znajdziemy poradniki, jak ChatGPT usprawni nam pracę nad danymi w Excelu albo napisze fragment kodu do naszej strony internetowej – jest bardzo dobrze!
  • Pisanie bajek dla dzieci – spróbuj sam – jest świetnie!

Po drugie, ChatGPT gubi się, gdy musi korzystać z internetu, o You Tube czy innych portalach społecznościowych nie wspominając, np.:

  • nie wie, kim jest Olaf Flak – nie tylko Olaf Flak, ale również kim są inni znani mi naukowcy, a których aktywność można z łatwością w kilka sekund sprawdzić za pomocą przeglądarki Google albo w bazach danych typu WoS albo Scopus – jest bardzo źle!
  • nie wie nic o pewnych dziedzinach życia – nie potrafi poprawnie wymienić, jakie urządzenia produkowała polska firma Fonica (gramofony, wzmacniacze); to niby dość specjalistyczna wiedza (a jednak stała, historyczna i niezmienna!), ale również do sprawdzenia przez człowieka w Google w 3 sekundy – fatalnie!
  • i na koniec zupełnie niezaliczony test – podaje zupełne bzdury, gdy zapytamy go o to, kto jest rektorem dowolnego uniwersytetu w Polsce (jego zdaniem Uniwersytet Śląski w Katowicach w ogóle nie ma rektora) – poniżej dna! (wiedza stabilna, dostępna w wielu bazach, na stronach internetowych itp.)

Podsumowując, jeśli sztuczną inteligencję zdefiniujemy jako operacje na języku naturalnym i przymkniemy oko na fakt, że te operacje wykładają się na prostych faktach do sprawdzenia w Internecie, to możemy myśleć o ChatGPT jak o sztucznej inteligencji. Jednak jeśli potraktujemy sztuczną inteligencję według definicji Maxa Tegmarka – Inteligencja do zdolność do osiągania złożonych celów (https://www.amazon.pl/Life-3-0-Being-Artificial-Intelligence/dp/1101970316) – to ChatGPT zdecydowanie sztuczną inteligencją nie jest. Dla mnie zdecydowanie nie jest.

Na koniec dwie skrajne opinie o sztucznej inteligencji. Pierwsza wyrażona jest przez apel o wstrzymanie prac nad sztuczną inteligencją, która przekracza możliwości ChatGPT-4, wystosowany między innymi przez Elona Muska:

https://www.wirtualnemedia.pl/artykul/gpt-4-jak-dziala-sztuczna-inteligencja-protest-elon-musk

Druga opinia na temat sztucznej inteligencji uosabianej z ChatGPT to podsumowanie filmu na jednym z moich ulubionych kanałów YT dotyczących techniki, prowadzonego przez genialnego Adama Śmiałka (dla anglojęzycznych czytelników – proszę włączyć tłumaczenie filmu), zwłaszcza od 13 minuty filmu: