Od SIRI, asystentki z Iphone’a po samochody, które nie potrzebują kierowcy, od kilku lat możemy obserwować, jak rozwija się sztuczna inteligencja (Artificial Intelligence). Podczas gdy science fiction przedstawia AI jako roboty o ludzkich cechach, w rzeczywistości jej oblicze jest bardziej prozaiczne i może być zaszyta wszędzie np. w algorytmach wyszukiwania Google, z którymi stykamy się codziennie.

Sztuczna inteligencja wykorzystywana obecnie jest określana mianem wąskiej, ponieważ wykonuje ściśle określone zadania (w wąskim zakresie) np. rozpoznawanie twarzy, przeszukiwanie zasobów Internetu lub prowadzenie samochodu. W dalszej perspektywie celem badaczy jest stworzenie ogólnej sztucznej inteligencji (Artificial General Intelligence). Choć sztuczna inteligencja w rozumieniu wąskim przewyższa człowieka w konkretnych zadaniach, jak gra w szachy czy rozwiązywanie równań, to AGI przewyższy człowieka w każdym procesie poznawczym.
Wciągająca rozmowa dotyczy przyszłości sztucznej inteligencji i jej użyteczności dla ludzkości. Istnieje wiele kontrowersji, w których światowi eksperci dyskutują na temat wpływ AI na rynek w momencie, kiedy zostanie opracowana sztuczna inteligencja będąca w stanie operować na poziomie człowieka. Czy doprowadzi do poprawienia jakości życia ludzi, na jakiej skalę nie jesteśmy w stanie przewidzieć, czy jest to coś, czego powinniśmy się raczej obawiać.

Czy sztuczna inteligencja może być niebezpieczna?

Większość badaczy zgadza się, że sztuczna inteligencja prawdopodobnie nie będzie w stanie wykazywać ludzkich emocji, takich jak miłość czy nienawiść, stąd nie ma powodu, aby spodziewać się, że AI stanie się celowo życzliwa lub złośliwa. Nie oznacza to jednak, że nie niesie ze sobą żadnego ryzyka. Eksperci rozważają 2 najbardziej prawdopodobne, kiedy AI może okazać się niebezpieczna.

Kiedy została wprost zaprogramowana do zrobienia czegoś niszczycielskiego. Dobrym przykładem jest broń autonomiczna. W rękach niewłaściwej osoby broń ta mogłaby łatwo spowodować masowe straty. Dodatkowo, aby uniknąć możliwości bycia rozbrojonym przez wroga, broń ta mogłaby zostać zaprogramowana w taki sposób, aby niezwykle trudno było ją po prostu „wyłączyć”, oznacza to, że ludzie mogliby — w przypadku zaistnienia podobnej sytuacji — stracić nad nią jakąkolwiek kontrolę.

Drugim przypadkiem jest sytuacja, kiedy AI jest zaprogramowana do zrobienia czegoś korzystnego, ale w procesie rozwoju algorytmu, tworzy destruktywną metodę osiągnięcia założonego celu. Może się to zdarzyć, zwłaszcza gdy cele zaprogramowane dla AI nie będą jednoznacznie zbieżne z ludzkimi założeniami. Sam fakt przeniesienia elementów ludzkich emocji – takich jak np. empatia – do algorytmu maszyny jest niezwykle trudne. Za przykład może tu posłużyć sytuacja, w której inteligentny samochód, został zaprogramowany, aby dojechać do wyznaczonego celu. Tak wyznaczony cel można osiągnąć na wiele sposobów np. nie zwracając uwagi na ograniczenia prędkości, sygnalizację świetlną czy pieszych na ulicach. Efektem tak zaprogramowanego zadania będzie osiągnięcie wyznaczonego celu, ale nie w taki sposób jak chcielibyśmy to osiągnąć.

Jak ilustrują przedstawione przykłady, obawy względem rozwoju zaawansowanego systemu sztucznej inteligencji nie są wyrazem braku wiedzy lub przesądności, a raczej kompetencji i dokładnej znajomości materii. Sztuczna inteligencja będzie niezawodna w realizacji swoich celów, jeśli cele te będą bardzo precyzyjnie zdefiniowane, we wszystkich obszarach.

Podziel się na:
  • Facebook
  • Google Bookmarks
  • LinkedIn