Nowa era mobilnych technologii medycznych
Szybki rozwój szeregu nowych technologii, wywiera ogromny wpływ na branżę opieki zdrowotnej. Jedną z takich nowinek jest telemedycyna (z ang. mHealth, mobile health). Istnieją różne definicje telemedycyny, żadna z nich nie jest jednak w pełni akceptowana w środowisku naukowym. W jednej z nich czytamy, że jest to: „mobilne przetwarzanie danych, gromadzonych za pomocą czujników medycznych oraz wykorzystywanie technologii telekomunikacyjnych w opiece zdrowotnej”. Globalne Obserwatorium ds. E-Zdrowia Światowej Organizacji Zdrowia określa mHealth jako „działalność z pogranicza medycyny i zdrowia publicznego, wspieraną przez urządzenia mobilne, np. telefony komórkowe, urządzenia monitorujące stan pacjenta, technologie ubieralne i inne urządzenia bezprzewodowe”. Ogólnie pod pojęciem telemedycyny rozumiemy, wykorzystywanie urządzeń mobilnych do monitorowania lub wykrywania zmian biologicznych w organizmie człowieka. Podstawowym zadaniem technologii telemedycznych jest dostarczenie danych diagnostycznych jednostkom służby zdrowia, takim jak np. szpitale, kliniki i świadczeniodawcy indywidualni, którzy następnie wykorzystają je do poprawy stanu opieki zdrowotnej a tym samym zdrowia swoich pacjentów.
W Korei Południowej, pierwsze rozwiązania z dziedziny telemedycyny zaczęto wdrażać w szpitalach i klinikach już w latach dziewięćdziesiątych XX wieku. Obecnie, pomimo że nadal znajdują się we wczesnej fazie rozwoju, te metody powszechnie stosuje się w koreańskiej służbie zdrowia. W Stanach Zjednoczonych 58% szpitali stworzyło dedykowane swoim pacjentom portale internetowe, a 47% z nich chce poszerzyć gamę oferowanych e-usług. Portal pacjenta posłuży gromadzeniu i udostępnianiu, wielu różnych informacji o stanie zdrowia pacjenta. Przykładową zaletą technologii mHealth jest to, że jest ona w stanie wydłużyć czas opieki nad pacjentem dzięki, ułatwieniu lekarzom dostępu do jego dokumentacji medycznej. Dzięki telemedycynie możliwe staje się obniżenie bezpośrednich i pośrednich kosztów opieki zdrowotnej, poprzez zmniejszenie liczby wizyt pacjentów w przychodniach lub skrócenie czasu ich hospitalizacji.
Jednym z najważniejszych wydarzeń w branży telemedycznej jest coroczna, międzynarodowa konferencja „mHealth Summit” odbywająca się w Waszyngtonie. Od 2015 r. jej oficjalny tytuł to Konferencja ,,Connected Health”. Coroczne konferencje na temat telemedycyny pokazują, że e-zdrowie jest ważną kwestią podejmowaną w środowisku opieki zdrowotnej. Podczas spotkań prezentowane są różne pomysły na rozwój branży i nowinki technologiczne. Konferencja jest doskonałą okazją do prezentacji najciekawszych wyników badań, które zostaną włączone do warsztatów pokazowych, zobaczy je wielu gości i potencjalnych konsumentów.
Chociaż e-zdrowie zwiększa swój udział w rynku i ma pewne pozytywne perspektywy, należy wyraźnie zaznaczyć i wyjaśnić kilka problematycznych kwestii jakie niesie ze sobą jego rozwój.
Po pierwsze, trudno jest w sposób jednoznaczny określić, jak należy klasyfikować urządzenia wykorzystywane w realizacji mobilnych usług zdrowotnych. Czy są to urządzenia medyczne, inny sprzęt do odnowy biologicznej czy produkty zdrowotne. Zarówno fachowcom, jak i indywidualnym użytkownikom urządzeń medycznych, należy przedstawić różnice pomiędzy nowymi medycznymi systemami e-zdrowia i innymi systemami monitorowania zdrowia, starszej generacji. Potrzebujemy zatem nowej definicji e-zdrowia, która będzie uwzględniała te różnice.
Po drugie, rozwój mHealth wymaga przedstawienia solidnych, opartych na dowodach, wyników badań skuteczności e-zdrowia. Konieczne jest zbadanie wpływu mHealth na poprawę stanu zdrowia i opieki zdrowotnej, za pomocą badań empirycznych z zastosowaniem solidnych metod badawczych. Wyniki tych badań pomogą w wdrożeniu nowych technologii, rozproszonych obecnie w branży opieki zdrowotnej. Chociaż wiele badań już wykazało, że mHealth przyczynia się do poprawy sytuacji chorych na choroby niezakaźne, to w czasopismach naukowych, jak do tej pory, odnotowano niewiele badań o charakterze ilościowym; z tego powodu na razie brakuje solidnych danych wykazujących skuteczność telemedycyny.
Po trzecie, po upowszechnieniu się telemedycyny może być konieczne aby każde państwo podjęło kwestię zapewnienia, w ramach ochrony ubezpieczeniowej, możliwości korzystania z usług telemedycznych. Włączenie telemedycyny, do koszyka świadczeń gwarantowanych, poprawiłoby jakość opieki zdrowotnej.
Po czwarte, na poziomie międzynarodowym należy ustanowić powszechnie akceptowalne standardy w zakresie e-zdrowia, aby jednak były one skuteczne muszą uwzględniać regionalne zróżnicowanie poziomu e-usług. Dzięki wspólnym przepisom możliwe będzie wypracowanie optymalnych standardów technologicznych.
Po piąte, potrzebujemy międzynarodowej współpracy w zakresie badań i rozwoju. Dzięki współpracy poprawa jakości opieki zdrowotnej stanie się tańsza i bardziej dostępna. Nie mniej ważne, w kontekście realizacji usług zdrowotnych w formie elektronicznej, jest poszanowanie prywatności i zapewnienia bezpieczeństwa danych osobowych pacjentów.
Kiedy wyżej omówione kwestie zostaną rozwiązane, telemedycyna stanie się jeszcze bardziej użytecznym narzędziem zapewniającym nam lepszą opiekę zdrowotną. Częste korzystanie z e-usług pomoże także stymulować rozwój firm produkujących urządzenia medyczne na potrzeby służby zdrowia.
Pokonaj stres z ODSTRESOWANI.PL. Śledź również nasz fanpage żeby nie przegapić nowości.
2. Neuroobrazowanie
Technologia weszła już na tak zaawansowany poziom, że obejrzenie wnętrza naszego ciała w sposób nieinwazyjny nie stanowi już problemu. Strukturalne techniki nueroobrazowania pozwalają dokładnie zobaczyć centrum dowodzenia naszego organizmu, czyli mózg.
Uzyskiwany, podczas badania, obraz trójwymiarowy powstaje dzięki scaleniu ze sobą dużej liczby przekrojów mózgu. Zastanówmy się teraz, czym jest tomograf komputerowy (w skrócie określany jak TK lub CT od ang. computed tomography). Większość ludzi zapewne wie, że jest to urządzenie medyczne, ale nie każdy zna zasadę jego działania. Technika tomografii komputerowej opiera się na tym, że promienie rentgenowskie w różnym stopniu są pochłaniane przez tkanki ludzkiego ciała. Podczas badania wiązka promieni X wielokrotnie wnika w tkankę pod różnymi kątami, w ten sposób powstaje obraz. Istotnym elementem tej metody diagnostycznej jest algorytm programu komputerowego, który oblicza gęstość radiologiczną każdego punktu na przekroju mózgu. Za pomocą tomografu komputerowego można wyodrębnić tkanki, w których różnice w absorbowaniu promieni X są większe niż 1%.
Jeżeli dokładność rzędu 1% jest niewystarczająca, to jeszcze dokładniejszy wynik można uzyskać dzięki badaniu rezonansem magnetycznym (MRI). Metoda ta jest skuteczna, ponieważ bazuje na wysokiej zawartości wody w ciele człowieka. Cząsteczki wody zbudowane są z atomów tlenu i wodoru, który posiada ładunek elektryczny. Po umieszczeniu badanego w bardzo silnym polu magnetycznym (1,5-7 Tesli), wysyła się w jego kierunku fale radiowe, które oddziałując z jądrami wodoru ulegają magnetyzacji, czyli ustawiają się wzdłuż linii wytworzonego pola. Można to porównać do nawlekania rozrzuconych koralików (protonów) na prosty i napięty drucik (linie pola magnetycznego). Dzięki temu uzyskujemy ustawienie protonów w jednym, określonym kierunku. Gdy fala radiowa przestaje być wysyłana, wszystkie protony powracają na swoje miejsce, ale same już są namagnesowane i stają się źródłem sygnału radiowego. Natężenie absorpcji pola magnetycznego jest zależne od tkanki. Wynikiem badania jest obraz powstający, poprzez komputerową analizę, otrzymanego sygnału zwrotnego.
Urządzenia wykorzystywane do neuroobrazowania mogą pracować w różnych trybach. Dzięki nim, lekarze podczas badania, obserwują reakcje organizmu na, podawane w celach leczniczych, substancje radioaktywne czy zalecone ćwiczenia. Omawiane metody są użyteczne w badaniach z zakresu m.in. psychologii. Pozwalają skonfrontować hipotezy badawcze, nie tylko na podstawie wywiadu z pacjentem czy z pomocą metody samoopisowej, ale również poprzez wgląd w budowę i pracę mózgu. Z pomocą omawianych technik nie można jednak przeprowadzić pełnej analizy poziomu aktywności mózgu. Do tego potrzebne są dane z badań oraz ogrom skomplikowanych obliczeń pozwalających na ich interpretację.
Skuteczność psychoterapii ma swoje empiryczne potwierdzenie w neuronaukach, jednak na efekty przyjdzie nam jeszcze trochę poczekać. Technologia neuroobrazowania, mimo że nieustannie posuwa się naprzód, to jednak ciągle nie przeprowadzono odpowiedniej dużej liczby badań klinicznych, aby móc wyciągnąć jednoznaczne wnioski. Jednak przy obecnej dynamice technologicznej, w niedalekiej przyszłości, neuroobrazowanie powinno przynieść jeszcze korzystniejsze efekty.
Pokonaj stres z ODSTRESOWANI.PL. Śledź również nasz fanpage żeby nie przegapić nowości.
Fenomen Hatsune Miku
Kim jest Hatsune Miku? Cóż, ona naprawdę nie jest „kimś”. Nie jest ani osobą, ani zespołem ludzi, nie jest nawet animowanym frontem rzeczywistego zespołu, jak w przypadku Gorillaz. Hatsune Miku to oprogramowanie wokalne, które wielu muzykom posłużyło do tworzenia swoich utworów. Precyzyjnie dostosowuje ono głos wokalisty do różnorodnych wymagań. Mimo, iż jest to jedynie program wokalny, dla rzeszy fanów Hatsune jest tak samo realna i przy okazji unikatowa, jak każda inna gwiazda muzyki pop. Zmienia jedynie sposób wyrażania muzyki oraz jej tworzenia.
Często, omyłkowo, nazywana jest postacią anime i robotem. Niektórzy redukują ją do roli nazywanej (znowu błędnie) hologramem, tymczasem Hatsune Miku jest vocaloidem. Oznacza to, że jest ona instrumentem cyfrowym: programem syntezującym głos, który za pomocą próbek głosu japońskiej aktorki Saki Fujita, jest zawsze gotowy do zaśpiewania tekstu, tak jak klawisze fortepianu do odtworzenia nut.
Hatsune Miku jest tylko głosem i dlatego jest bardzo ograniczona. Na szczęście stoi za nią zespół ludzi pod przewodnictwem Hiroyuki Itoh, CEO Crypton Future Media. Opisuje on Hatsune Miku i zjawisko Vocaloidu następująco:
„Wokół Miku wytworzyła się duża społeczność, a jej fanów liczy się w milionach. To niesamowite, ale ta postać, która jest zarazem cyfrowym instrumentem, znajduje się w centrum ogromnej, cyfrowej rewolucji muzycznej. Ruchu, który zapewnia niezależność tysiącom muzyków i pomaga im tworzyć swoją własną muzykę”.
Muzyczna wolność
Oprogramowanie Vocaloid wykorzystuje silnik syntezy mowy, firmy Yamaha. Pierwsza wersja Hatsune została wydana w 2007 roku. Była ona trzecim takim produktem japońskiego przedsiębiorstwa Crypton Future Media i ostatecznie stała się częścią trupy, sześciu oddzielnych e-wokalistów- Vocaloidów, wykonanych w technologii Crypton. Śpiewa głównie po japońsku, ale ma również angielski zestaw głosów. Podobnie jak w przypadku innych instrumentów muzycznych, oryginalna muzyka stworzona przy użyciu Hatsune Miku może być dystrybuowana i sprzedawana.
Począwszy od muzyków chcących eksperymentować z wokalem, skończywszy na tych, którzy nie mają środków ani możliwości zatrudnienia wokalistki, Hatsune Miku oferuje każdemu niemal całkowitą muzyczną swobodę. Nie dba o to, jaki gatunek śpiewasz, nigdy nie zakwestionuje twoich wyborów stylistycznych, może pracować bez przerwy i nie trzeba płacić jej wynagrodzenia.
Sukces oprogramowania Vocaloid i społeczności, który dzięki niemu powstała, można porównać do rozwoju smartfonów i środowiska twórców aplikacji. Sklepy z aplikacjami i popularność smartfonów pozwalają każdemu, kto ma komputer i trochę wiedzy o kodowaniu, pisać i wydawać aplikacje. Hatsune Miku i wszystkie inne Vocaloidy zapewniają tę samą możliwość każdemu, kto ma talent muzyczny. Nagrywanie z Miku zmieniło życie tych ludzi.
Wyjście poza muzykę
Twórczość Vocaloidów nie kończy się na muzyce. Na przykład, podobnie jak w przypadku popularnych piosenek, utwory tworzone przez Vocaloidy mają towarzyszące im teledyski, wykonane przy pomocy oprogramowania znanego jako MikuMikuDance lub w skrócie MMD. Ta nazwa dobrze oddaje jego funkcjonalność, ponieważ animowaną w 3D Miku można zaprogramować tak, aby tańczyła w takt utworu. Te produkowane przez fanów materiały przyciągają tłumy widzów a cała społeczność zbudowana jest wokół miłości do postaci, tego, co sobą reprezentuje i nowej gałęzi sztuki.
Głos, który stał się megagwiazdą
Hatsune Miku jest tylko głosem, bez artystów korzystających z oprogramowania nie powiedziałaby ani słowa. Oprócz tego, że Miku pomaga zwykłym ludziom tworzyć muzykę, na całym świecie jest także prawdziwą megagwiazdą. Wielu producentów znanych marek używa Miku do uzyskania zadziwiającego efektu. Jej twórca Mitchie M ma niesamowity talent do perfekcyjnego dobierania głosu. Miku występuje też we własnej serii gier wideo – Project Diva i Project Mirai. Pojawiła się również w reklamach Toyoty i Google Chrome.
Podczas światowej trasy koncertowej pod nazwą Miku Expo, Hatsune Miku zaprezentuje się – w formie „hologramu” – śpiewając niektóre ze swoich najpopularniejszych piosenek. Wiele z tych piosenek zostało napisanych i wyprodukowanych przez artystów, którzy również korzystają z podobnych avatarów np. Wisp X, Coralmines i tysiące innych producentów muzycznych. To dowód na to, że domorośli muzycy, którzy korzystają z fenomenu programów typu Hatsune Miku, mogą trafić na wielką scenę.
Bez względu na platformę której używają, ostatecznym celem większości muzyków jest to, aby ich muzyka była słuchana, niezależnie od tego, czy wykonywana ,,na żywo”, czy w formie online. Doskonale ujął to Revolution Boi- amerykański DJ i remikser: „Vocaloid pomógł mi dotrzeć z moją muzyką do nowej publiczności, której dotąd nie znałem. Jestem szczęśliwy, że ludzie mają szansę mnie usłyszeć. Cieszę się, że jestem częścią tej społeczności.”
Oprogramowanie typu Vocaloid otwiera ogromny świat możliwości twórczych każdemu, zainteresowanemu tworzeniem muzyki. Natomiast fani Miku, mogą przejrzeć setki tysięcy jej utworów na YouTube i w innych mediach oraz dołączyć do 2,5 milionowej społeczności na Facebooku.
Pokonaj stres z ODSTRESOWANI.PL. Śledź również nasz fanpage żeby nie przegapić nowości.
Psychotechnologia
Większość ludzi nie łączy przemysłu wysokich technologii (z ang. high-tech) z psychologią akademicką. Warto jednak wiedzieć, że rozwój technologiczny, wpłynął w istotny sposób na kształt współczesnej psychologii. W ostatnim czasie, psychologowie zaczęli w pełni wykorzystywać możliwości, jakie niosą ze sobą nowoczesne technologie.
Sposoby diagnozowania ogólnego stanu psychicznego
Elektroniczne monitory stresu zostały zaprojektowane, w celu ułatwienia kontroli codziennego poziomu stresu. Czujniki, które wykorzystują nie rzucają się w oczy, można je ukryć na przykład w skarpetkach. Gdy pacjenci zauważą u siebie rosnący poziom stresu, będą w stanie podjąć odpowiednie działania aby zapobiec zjawisku wypalenia zawodowego i depresji.
Jak technologia zmieniła społeczeństwo
SMS-y, portale społecznościowe, Internet i telefony komórkowe pozwalają nam na komunikację z innymi o dowolnej porze. Faktycznie technologie te, pod wieloma względami, stały się już naszą drugą tożsamością. Nie zgadzasz się? A kiedy ostatnio aktualizowałeś swój status na Facebooku, tylko po to aby pochwalić się nowymi butami, czy wizytą na siłowni? A może grasz w gry online?
W artykule dla magazynu New Scientist Tech, profesor MIT, Sherry Turkle, twierdzi, że narzędzia technologiczne kształtują ludzką psychikę: „Młody człowiek, który dorasta w atmosferze natłoku obowiązków i konieczności podejmowania szybkich decyzji, mierzy swój życiowy sukces za pomocą liczby wykonanych rozmów telefonicznych, odebranych e-maili, czy SMS-ów. W tym szumie aktywności mogą pojawić się straty, na poniesienie których nie jesteśmy jeszcze gotowi”.
Kierunki studiów łączące psychologię z technologią
Niektóre uczelnie wyższe, zaczęły dostosowywać ofertę i programy studiów wyższych, do rosnącego zainteresowania kierunkami łączącymi elementy psychologii i technologii. MIT dołączył do innych szkół wyższych, tworząc unikatowe kierunki z pogranicza tych dwóch dziedzin.
Uniwersytet Alabamy otworzył wyjątkowe laboratorium łączące psychologię z technologią, aby skupić się na interakcji między złożonymi systemami a ludźmi. Nie ma wątpliwości, że tak długo jak technologie będą się rozwijać, będą miały znaczący wpływ, zarówno pozytywny, jak i negatywny, na nas jako jednostki i na społeczeństwo.
Pokonaj stres z ODSTRESOWANI.PL. Śledź również nasz fanpage żeby nie przegapić nowości.
Asystent głosowy
Czy rozmawiasz z maszynami? A co ważniejsze, czy one rozmawiają z tobą? Jeśli mówisz do urządzeń, spokojnie, nie zwariowałeś. Prawdopodobnie tak jak miliardy innych ludzi, połączyłeś się głosowo ze swoim telefonem, telewizorem lub głośnikiem, aby odtworzyć muzykę, zlokalizować adres lub wysłać wiadomość. Asystenci głosowi wyszli ze swoich aplikacji, stali się wszechobecni.
Nikt nie wie tego lepiej niż prekursor cyfrowych asystentów głosowych Dag Kittlaus- człowiek, który wziął udział we wprowadzeniu na rynek pierwszej wirtualnej asystentki- Siri. Kittlaus, wraz ze swoim wspólnikiem Adamem Cheyer’em, stworzyli wirtualną asystentkę Siri w 2007 roku. Siri zadebiutowała jako aplikacja na Apple Store w 2010 roku a wkrótce po tym Steve Jobs kupił ich firmę. Wraz z premierą iPhone’a 4S w 2011 roku świat zaczął rozmawiać już nie tylko przez telefon, ale również z nim.
Po sprzedaniu Siri Apple’owi Kittlaus i Cheyer nie spoczęli na laurach, przeciwnie uruchomili nową firmę zajmującą się cyfrowym przetwarzaniem głosu. Viv, bo tak nazywa się ich nowy program (lub Bixby w przypadku urządzeń Samsunga), może sprawić, że jego twórcy staną się liderami technologii wirtualnych asystentów.
Przyszłość urządzeń głosowych
Sterowanie głosowe nie jest krótkotrwałą modą. Nie jest też skierowane wyłącznie do osób, które chcą mieć wolne ręce podczas obsługi urządzeń elektronicznych. Sterowanie głosowe stanie się niezbędne ze względów praktycznych-rozmawiać możemy znacznie szybciej niż pisać.
Asystenci głosowi znajdą zastosowanie w każdej dziedzinie życia np.: motoryzacji, biznesie, tzw. inteligentnych domach, hotelach i restauracjach. Już niedługo klienci pralni będą mogli porozmawiać z pralką a gości hotelowych zamelduje automat stojący w holu. Urządzenia będą mogły swobodnie rozmawiać, oferując porady lub sugestie.
Kittlaus twierdzi, że najnowsza wersja Bixby będzie wkrótce dostępna dla ponad miliarda urządzeń obsługujących technologię Samsunga. Już teraz liczba urządzeń głosowych obsługiwanych przez Apple, Amazon i Google jest ogromna, a w najbliższym czasie będziemy otoczeni przez rozmawiające maszyny.
Komunikacja głosowa stanie się bardziej funkcjonalna
Jak do tej pory urządzenia obsługiwane głosowo nie są zbyt popularne, ponieważ zadania, które mogą one wykonywać, są jeszcze bardzo ograniczone. Większość użytkowników korzysta z asystentów głosowych aby znaleźć adres, rozpocząć rozmowę telefoniczną, podyktować tekst lub ustawić alarm. Niestety jeszcze nie możemy z nimi porozmawiać.
Kittlaus uważa, że dzięki firmom takim jak Alexa, która obecnie jest liderem w dostawach oprogramowania do urządzeń innych producentów, w niedalekiej przyszłości będziemy mogli sterować głosowo dużo większą liczbą aplikacji w telefonicznych. Na sterowanie głosowe przejdzie też większość urządzeń AGD i maszyn przemysłowych na świecie. Dzięki uczeniu maszynowemu staną się spersonalizowane i dostosowane do naszych nawyków i preferencji. Sprawi to, że urządzenia będą nam jeszcze bardziej przydatne.
W przyszłości asystent zamówi pizzę za pośrednictwem aplikacji, wykona ruch w komputerowej grze w szachy lub, za pomocą dedykowanej aplikacji, dostroi gitarę – wszystkie te polecenia wydasz mu za pomocą głosu, bez dotykania telefonu. Prawdopodobnie na dalszym etapie, powstaną urządzenia przewidujące to, co chcemy zrobić w danym momencie, w oparciu o analizę naszych zwyczajów.
Obawy o naruszenie prywatności
Zanim asystenci głosowi upowszechnią się na całym świecie trzeba rozwiązać pewne problemy. Jednym z głównych problemów jest kwestia prywatności – urządzenie przez cały czas analizuje nasz głos.
Kittlaus wskazuje, że urządzenie aktywuje się tylko wtedy, gdy słyszy „hasło wybudzenia”, czyli „Hej Siri”, „Hej Google” lub „Alexa”. Urządzenia nigdy nie nagrywają naszych rozmów. Firmy produkujące wirtualnych asystentów, traktują poważnie sferę prywatności swoich klientów. Kittlaus uważa, że prawdziwe zagrożenie dla prywatności nie pochodzi od twórców wirtualnych asystentów, ale od hakerów, którzy mogą włamać się do naszych urządzeń i użyć ich do szpiegowania nas- użytkowników. Jeśli boisz się tego, lepiej nie kupuj urządzeń obsługiwanych głosem.
Asystenci głosowi nie są jeszcze doskonali i mają problemy z ochroną prywatności, ale z każdym dniem stają się coraz lepsi. Pewnego dnia, w niedalekiej przyszłości, spojrzysz na kogoś w pracy, kto ręcznie wpisuje dane na klawiaturze telefonu lub komputera i zastanowisz się, dlaczego robi to w tak powolny i staroświecki sposób.
Ciekawostki o robotach, część I
Robofobia
Robofobia jest zaburzeniem lękowym, cierpiący na nią odczuwają irracjonalny strach przed robotami, dronami oraz mechanizmami podobnymi do robota. Odczuwają także dyskomfort w czasie kontaktów ze sztuczną inteligencją. Chory doświadcza ataków paniki, które wywołują oglądanie robotów, przebywanie w ich pobliżu lub nawet mówienie o robotach. Wiele znanych osób, w tym Bill Gates, Stephen Hawking i Elon Musk cierpią z powodu tego zaburzenia.
Ramię robota
Najpopularniejszym typem robotów produkcyjnych jest tzw. ,,ramię robota”. Typowe ramię składa się z siedmiu metalowych segmentów połączonych sześcioma zawiasami. Robot jest sterowany przez komputer, który obraca poszczególne silniki krokowe przypisane do każdego zawiasu. Ramię porusza się bardzo precyzyjnie, a robot wykorzystuje czujniki ruchu, aby upewnić się, że porusza się w odpowiednim kierunku.
Roboty na egzaminach
Robot Todai Noriko Arai został zaprogramowany aby zdać egzamin wstępny na najbardziej prestiżowy uniwersytet w Japonii, Uniwersytet Tokijski. Udało mu się pokonać 80% uczniów, którzy przystąpili do egzaminu. Poradził sobie nawet z pytaniami opisowymi. W ten sposób rzucił wyzwanie człowiekowi. Miejmy jednak nadzieję, że jeszcze przez jakiś czas, uda nam się powstrzymać dominację robotów.
Robot Profesor Einstein
Zaawansowany konstrukcyjnie robot Profesor Einstein, został wyposażony w 31 sztucznych mięśni, zostały one zaprogramowane tak, aby mimika jego twarzy jak najwierniej naśladowała ludzką. Robot jest w stanie samodzielnie wyrażać emocje, a jego ostatnim dokonaniem było nauczenie się uśmiechu i marszczenia brwi.
Prawa dotyczące robotów
Obecnie uprawnienia i etyka robotów stały się pełnoprawną gałęzią prawa. Strona internetowa Wydziału Prawa Uniwersytetu Stanforda ma sekcję zatytułowaną „Cyberlaw” (z ang. cyberprawo), która omawia kwestie etyczne dotyczące zastosowania robotów w obszarach militarnych i medycznych. Można tam znaleźć profesjonalną interpretację związanych z tym przepisów.
Prawa robotów
W 1942 roku pisarz science fiction Isaac Asimov przedstawił, w swoim opowiadaniu, trzy prawa robotyki, które mogłyby regulować zachowanie robotów w stosunku do człowieka. Prawa te mówią, że roboty nie mogą skrzywdzić istot ludzkich, muszą być posłuszne istotom ludzkim, chyba że naruszałoby to pierwsze prawo oraz muszą chronić własne istnienie, chyba że naruszałoby to pierwsze lub drugie prawo.
Wcześni użytkownicy
Pierwotnym rynkiem zbytu robotów na wczesnym etapie rozwoju był przemysł motoryzacyjny. 70% robotów zamówionych w latach 80. XX w. było przeznaczonych do użytku w fabrykach samochodów, roboty były tam wykorzystywane do zgrzewania punktowego, czy malowania.
Simon i Curie
Simon i Curie to roboty o dużych oczach i białych twarzach, które potrafią rozmawiać, słuchać, uczyć się i reagować. Andrea Thomaz, ich twórca, specjalizuje się w interakcji robot-człowiek i pracuje nad tym, aby roboty i sztuczna inteligencja komunikowały się z człowiekiem za pomocą mowy i gestów.
Uczeń przerósł mistrza
Georgia Tech School of Electrical and Computer Engineering połączyła małego humanoidalnego robota z tabletem z Androidem, dzięki temu dzieci mogą nauczyć go grać w Angry Birds, przeciągając palcem po tablecie. Robot naśladuje ich ruch i gra w grę. Program został zaprojektowany jako terapia dla dzieci niepełnosprawnych.
Nurkowanie na Antarktydzie
W 2015 r. pierwszy pojazd robotyczny zanurkował w dziewiczych głębinach pod Lodowcem Szelfowym Rossa na Antarktydzie. Robot został zbudowany przez zespół naukowców i inżynierów z Georgia Institute of Technology i zszedł 500 metrów pod wodę przez otwór w lodzie o średnicy 12 cali.
Kapitan Cyborg
Kevin Warwick jest profesorem cybernetyki na Uniwersytecie w Reading w 1998 r. wszczepił do swojego układu nerwowego mikrochip. Chip emituje unikalny sygnał identyfikacyjny, który rozpoznaje komputer. Dzięki temu profesor Warwick, może obsługiwać różne urządzenia elektroniczne, takie jak lampy pokojowe, zamki do drzwi lub windy.
Nadchodzą!
Założyciel Carnegie Mellon’s Robotics Institute, Hans Moravec, przewiduje, że roboty pojawią się jako niezależny gatunek do 2040 roku, wówczas będą w stanie zastąpić ludzi w każdym istotnym zadaniu.
Elektro
Na Wystawie Światowej Expo 1939 w Nowym Jorku publiczność była zachwycona chodzącym i rozmawiającym robotem Elektro. Robot opisał siebie jako „inteligentnego faceta” z „dobrym mózgiem”. Mechanizm robota składał się z 48 przekaźników elektrycznych, które działały jak centrala telefoniczna. Przyjmował polecenia głosowe przez słuchawkę telefoniczną. Robot został niedawno ponownie złożony i jest teraz wystawiany w Mansfield Memorial Museum; jest reklamowany jako „najstarszy żyjący amerykański robot na świecie”.
Ciekawostki o robotach część II
Nanoroboty
Nanorobot jest mikroskopijnym robotem zaprojektowanym tak, aby mógł dotrzeć do bardzo ciasnych przestrzeni w celu wykonania zaprogramowanych zadań. W przyszłości nanoroboty, będą mogły być umieszczane w krwiobiegu pacjenta, aby wykonywać tam precyzyjne zabiegi chirurgiczne, które przeprowadzane w formie standardowej operacji, są zbyt ryzykowne.
Kampania na rzecz zatrzymania robotów zabójców
Według Stuarta Russella, profesora informatyki na Uniwersytecie Kalifornijskim w Berkeley, technologia umożliwiająca tworzenie zabójczych robotów już istnieje i należy oficjalnie zakazać jej stosowania. W listopadzie 2017 r. grupa aktywistów przedstawiła swoje argumenty na forum Organizacji Narodów Zjednoczonych, prosząc o wprowadzenie globalnego zakazu stosowania śmiercionośnych, autonomicznych systemów zbrojnych.
Sposób na doskonałe żniwa
Naukowcy prowadzą badania nad agrobotami, które określą w którym momencie zboże jest idealnie dojrzałe i można rozpocząć żniwa. Roboty te będą również siać, pielić chwasty, nawadniać rośliny oraz przeprowadzać opryski bez potrzeby ingerencji rolnika. Eksperci przewidują, że takie roboty zostaną wprowadzone do użytku już w 2020 roku.
Silny robot o delikatnym dotyku
Robear jest robotem pielęgniarskim reklamowanym jako ,,łagodny niedźwiedź”, który jest jednak na tyle silny, aby podnieść starszą osobę. Inne jego hasło to „silny robot o delikatnym dotyku”. Jego podstawową funkcją jest zapewnianie wsparcia osobom starszym, podczas przemieszczania się czy wstawania. Będzie również wykorzystywany w szpitalach, przy pielęgnacji pacjentów cierpiących na otyłość.
Roboty-pielęgniarki
Jedna czwarta populacji Japonii ma ponad 65 lat, a do 2065 r. liczba ta ma wzrosnąć do 40%. Doprowadziło to do szybkiego rozwoju rynku robotów pielęgniarskich, 1/3 budżetu państwa jest przeznaczona na rozwój robotów opiekuńczych, które ułatwią życie starszym Japończykom.
Autonomiczny wojownik
Podczas gdy większość armii, już od kilku lat, skupia się na rozwoju dronów wykorzystywanych w celach militarnych, rosyjskie wojsko testuje bezzałogowe pojazdy naziemne typu UGV ( z ang. Unmanned Ground Vehicle). Testy mają wykazać, który z pojazdów jest najbardziej użyteczny w warunkach polowych. Bezzałogowy pojazd o nazwie ,,Nerekhta” jest wyposażony w napęd gąsiennicowy, a w warunkach bojowych może zostać dodatkowo wyposażony w karabiny maszynowe dużego kalibru, granatnik i pociski przeciwpancerne. Celem projektu jest zaprojektowanie pojazdów wyposażonych w sztuczną inteligencją, co pozwoli im działać bez pomocy człowieka.
Gołąb zasilany parą
Archytas był starożytnym greckim filozofem, znanym z projektu maszyny uważanej za pierwsze w historii samobieżne urządzenie latające zwane „latającym gołębiem”. Mechanizm podobny do gołębia miał cylindryczny kształt, był pusty w środku oraz wyposażony w skrzydła po obu stronach. Z tyłu gołębia znajdował się otwór połączony z ogrzewanym, szczelnym kotłem, który w miarę podgrzewania wody, wytwarzał coraz więcej pary, co ostatecznie powodowało, że „maszyna” latała.
Przypadkowa śmierć
Pierwszy znany przypadek zabójstwa człowieka przez robota miał miejsce w 1981 r. Ramię robota zmiażdżyło japońskiego robotnika w firmie Kawasaki. Śmierć pracownika została uznana za wypadek.
Maszyny zastąpiły niewolników
W Polityce, napisanej w 350 r. p.n.e., Arystoteles przewidział, że automaty mogą kiedyś zastąpić niewolników w wykonywaniu zadań domowych. Napisał: „Jest tylko jeden warunek, który musiałby zostać spełniony, aby moglibyśmy sobie wyobrazić panów, którzy nie potrzebują podwładnych i mistrzów, którzy nie potrzebują niewolników. Warunek ten polegałby na tym, że każdy (nieożywiony) instrument mógłby wykonywać swoją pracę, sam zgodnie z poleceniem jego właściciela ”. Tysiące lat później jego przewidywania spełniły się, choćby w postaci odkurzaczy Roomba.
Rycerz mechaniczny
Około roku 1495 Leonardo da Vinci naszkicował szczegółowe plany mechanicznego rycerza. Pokazał, jak można zbudować maszynę opartą na budowie ciała człowieka i zaprojektował ją tak, aby poruszała się naturalnie. Jego rycerz potrafił stać, siedzieć, podnosić głowę i niezależnie poruszać szczęką, rękami oraz szyją.
Pierwsza na świecie firma robotyczna
Pierwsza na świecie firma robotyczna została założona w 1956 roku przez George’a Devola i Josepha Engelbergera. Firma nazywała się Unimation i wprowadziła na rynek pierwszego robota przemysłowego.
Samochód da Vinci
Jeden z najwcześniejszych przykładów konstrukcji robotów samobieżnych pochodzi z 1478 r. Robot ten był dziełem Leonarda da Vinci.
Samochód Da Vinci był, napędzany za pomocą naciągu sprężynowego. Został zbudowany prawdopodobnie po to, aby wywołać sensację na dworze możnowładcy.
W czasach, gdy na większości ludzi silne wrażenie wywarłby widok nienaturalnie dużego konia, można sobie wyobrazić, sensację jaką wywoływał człowiek przybywający na spotkanie, w wehikule wyglądającym jak gigantyczny zegar.
Pochodzenie
Słowo „robot” pochodzi od czeskiego słowa „ robota” , które oznacza „pracę przymusową, pańszczyznę”. Pierwotnie termin ten odnosił się do chłopów, którzy byli zobowiązani do świadczenia nieodpłatnej pracy dla swoich panów w ramach systemu feudalnego.
Dzisiaj termin ten jest używany do opisania dowolnej maszyny stworzonej przez człowieka, która może wykonywać pracę i inne czynności wykonywane zwykle przez człowieka.
Cyberpunk 2077
Podczas prezentacji zwiastuna gry „Cyberpunk 2077” odtwarzający jedną z głównych ról, wiecznie młody Keanu Reeves zjawił się niespodziewanie, niczym hiszpańska inkwizycja. Na klipie prezentującym co czeka graczy w 2020 Keanu wygląda jak żywy – ze wszystkimi detalami. Jak oni to zrobili?
Technologia, już od dłuższego czasu, pozwala twórcom gier przenosić rzeczywiste postacie w przestrzeń cyfrową, co przynosi świetne efekty. Gry wyglądają jakby były kadrami filmowymi, a ich twórcy mogą sobie pozwolić na coraz więcej sztuczek wizualnych dzięki technologii 3D. To właśnie dzięki skanowaniu i modelowaniu 3D jesteśmy w stanie prowadzić rozgrywkę osobą o znanej twarzy. Jak to wygląda od kuchni?
Skanowanie 3D to idealne rozwiązanie przy odtwarzaniu fotorealistycznych postaci w cyfrowym świecie. System łączy w sobie najlepszą technologię do przechwytywania topologii o wysokiej rozdzielczości z niezwykle szczegółowymi mapami tekstur.
Skanery 3D mogą jawić się jako skomplikowana technologia. Ale zagłębiając się w temat zauważamy, że są to urządzenia, które tworzą cyfrowe repliki obiektów fizycznych o trójwymiarowych właściwościach. Niewielkie urządzenie emitujące, całkowicie bezpieczne dla człowieka, białe światło strukturalne, przenosi realny obraz w świat cyfrowy. Daje to możliwość odtworzenia zeskanowanego obiektu w postaci obrazu cyfrowego.
Jednak sam obiekt w komputerze to nie wszystko, bohater filmu musi się jeszcze ruszać. Tutaj wkracza do akcji technika motion capture, czyli skanowanie konkretnych gestów, zachowań i mimiki twarzy. Sam Keanu Reeves poznał tą techniką podczas kręcenia Matrixa, więc doskonale wiedział na czym to polega. Wraz ze specjalistami CD Projekt RED Reeves stworzył bibliotekę mimiki i gestów, a następnie zaaranżował kilka scen, teraz wspomina to jako świetną zabawę.
Gry rządzą się własnymi prawami i nieco różnią się od filmów – w grach czasami akcja zatrzymuje się, bohater stoi czekając na reakcję i decyzję gracza. Postać nie może stać sztywno, musi pokazywać gesty zniecierpliwienia i w ten sposób wpłynąć na gracza, motywując go do dalszej rozgrywki. Postać odwzorowywana przez Keanu w takich sytuacjach przechyla głowę na bok i mówi „chodź” lub „no chodź już stary”.
Doświadczenie i dobra zabawa podczas tworzenia postaci nie były jedynymi powodami, dla których Reeves zgodził się na udział w produkcji. Jak sam powiedział „gry zupełnie zmieniły się od czasu gdy sam w nie grałem, zwłaszcza jeśli chodzi o technologię wykorzystywaną do przedstawiania fabuły”. Właśnie to przekonało go do udziału w pracach nad „Cyberpunk’iem 2077”.
Przewidywana premiera gry to 19 listopada 2020 roku, ale już teraz, opierając się na reakcjach fanów, możemy być pewni że będzie to ogromny sukces.
Sztuczna inteligencja w życiu codziennym
Cały świat dyskutuje o konsekwencjach powstania sztucznej inteligencji, a AI (z ang. artificial intelligence) już kształtuje naszą rzeczywistość. Chociaż możemy się oszukiwać, że dzieli nas jeszcze co najmniej kilka lat od momentu, w którym sztuczna inteligencja zacznie wywierać znaczący wpływ na nasze życie, faktem jest, że już to robi. Sztuczna inteligencja każdego dnia wpływa na nasze decyzje i styl życia. Nie wierzycie?
Oto 10 przykładów wykorzystania w sztucznej inteligencji w życiu codziennym:
Smartfony
Jeśli czytasz ten artykuł, prawdopodobnie masz smartfona. Mogę się nawet założyć, że większość z was czyta ten artykuł właśnie na urządzeniu przenośnym. Smartfony stały się najniezbędniejszym urządzeniem technicznym, które dzisiaj posiadamy. Używamy ich niemal przez cały czas. Cóż, jeśli korzystasz ze smartfona, współpracujesz ze sztuczną inteligencją. Od oczywistych funkcji AI, takich jak wbudowany inteligentny asystent, do tych nie przywodzących na myśl sztucznej inteligencji, jak tryb portretowy w aparacie – AI każdego dnia wpływa na nasze życie.
Przyjrzyjmy się bliżej przywołanym przykładom, dadzą nam one wgląd w świat sztucznej inteligencji i w to, w jaki sposób wpływa ona na nasze życie. Po pierwsze, istnieją urządzenia wprost wykorzystujące sztuczną inteligencję, o których większość z słyszało. Na przykład, gdy używasz inteligentnego asystenta głosowego, niezależnie od tego, czy jest to Asystent Google, Alexa, Siri czy Bixby, mniej więcej wiesz, że asystenci ci działają na zasadzie AI. Jednakże, gdy używamy funkcji, takiej jak ,,tryb portretowy” podczas robienia zdjęcia, nie zdajemy sobie sprawy, że sztuczna inteligencja może stać również za tym. Czy zastanawiałeś się kiedyś, jak to możliwe, że Google Pixel 2 robi tak wspaniałe zdjęcia portretowe za pomocą jednego obiektywu? Odpowiedzią na to pytanie jest właśnie sztuczna inteligencja.
Zastosowanie sztucznej inteligencji umożliwiło dodanie szeregu zaawansowanych funkcji fotograficznych takich jak wykrywanie scen, elementy mieszanej i wirtualnej rzeczywistości i wiele innych. W przyszłości rola AI na pewno będzie się zwiększać. Już teraz widzimy, że najnowsze aktualizacje systemów Android i iOS kładą ogromny nacisk na AI. Funkcje takie jak akcje aplikacji, adaptacyjna bateria w Androidzie Pie i skrótach Siri oraz sugestie Siri w iOS 12 są możliwe dzięki AI. Więc następnym razem, gdy będziesz chciał powiedzieć, że sztuczna inteligencja nie ma na ciebie wpływu, wyjmij swój smartfon.
Inteligentne samochody i drony
Najlepszym przykładem zastosowania technologii AI są inteligentne samochody i drony. Jeszcze kilka lat temu używanie w pełni zautomatyzowanego samochodu było nieosiągalnym marzeniem. Obecnie, firmy takie jak Tesla, dokonały tak dużego skoku technologicznego, że możemy cieszyć się całą flotą półautomatycznych samochodów, coraz częściej spotykając je na swojej drodze.
Firmy takie jak Amazon i Walmart intensywnie inwestują w programy dronów-kurierów i w tym tempie staną się one rzeczywistością znacznie wcześniej niż się tego spodziewacie. Jeśli uważasz, że jest to naciągane, zauważ, że wojska na całym świecie już teraz wykorzystują drony chociażby do akcji zwiadowczych.
Samochody Tesli są doskonałym przykładem tego, jak AI wpływa na nasze codzienne życie. Czy wiesz, że wszystkie samochody Tesla są połączone, a rzeczy, których uczy się ten samochód, są wspólne dla nich wszystkich? Oznacza to, że gdybyś np. musiał ściąć zakręt na skrzyżowaniu, to po aktualizacji oprogramowania, wszystkie samochody Tesli będą wiedziały, jak manewrować w tym miejscu. W samych tylko Stanach Zjednoczonych działa już ponad 50 000 samochodów Tesla, a liczba ta ma się gwałtownie zwiększyć, ponieważ firma rozwiązała już swoje główne problemy produkcyjne. Kiedy autonomiczne samochody zaczną jeździć po naszych drogach a autonomiczne drony latać nad nami, nie będziesz w stanie zaprzeczyć, że AI wpływa na nasze życie.
Media społecznościowe
Jeśli myślisz, że inteligentne samochody nie wywierają wpływu na ciebie osobiście, ponieważ nadal nie ma ich w twoim mieście a i w skali całej Polski są dość rzadko spotykane, to może przekona cię coś, z czego korzystasz na co dzień. Nawet jeśli urwałeś się z choinki, istnieje duże prawdopodobieństwo, że masz konto na jakimś portalu społecznościowym. Jeśli nie Twitter, być może jest to Facebook lub Instagram, Snapchat lub jakakolwiek inna aplikacja społecznościowa. Cóż, jeśli używasz mediów społecznościowych, większość twoich decyzji jest zależna od sztucznej inteligencji.
Od polubionych profili przeglądanych na osi czasu do powiadomień otrzymywanych z aplikacji, wszystko jest obsługiwane przez AI. Sztuczna inteligencja kataloguje wszystkie twoje zachowania, wyszukiwania w sieci, interakcje i wszystko to, co robisz, gdy jesteś na stronach internetowych. Dostosowuje wszelkie treści do twojego gustu na podstawie tego, co już widziałeś. Jedynym celem AI jest stworzenie aplikacji tak wciągających, że będziesz musiał i chciał wracać do nich wielokrotnie, jak do tej pory, to ona wygrywa z tobą tę wojnę.
Usługi przesyłania strumieniowego muzyki i multimediów
Kolejnym świetnym przykładem tego, jak sztuczna inteligencja wpływa na nasze życie, są usługi przesyłania muzyki i mediów, z których korzystamy codziennie. Niezależnie od tego, czy używasz Spotify, Netflixa czy YouTube, AI podejmuje decyzje za Ciebie. Możesz się oszukiwać, że masz nad swoim życiem całkowitą kontrolę, ale tak nie jest. I tak jak zawsze, ten medal ma dwie strony. Na przykład uwielbiam- stworzoną automatycznie- playlistę Discover Weekly na Spotify, ponieważ zapoznała mnie z kilkoma nowymi artystami.
Z drugiej strony, na pewno każdy z nas doświadczył wpadnięcia w bezdenną otchłań YouTube spędzając na nim niezliczone godziny oglądając polecane filmy. Sekcja ,,Wybrane dla ciebie” stała się tak dobra w trafianiu w mój gust, że aż mnie to przeraża. Tak więc następnym razem, gdy zatracisz się w polecanych filmach na YT lub Netflixie, czy będziesz pochłaniać kolejne utwory zaproponowane przez Spotify, pamiętaj, że sztuczna inteligencja maczała w tym swoje cyfrowe palce.
Gry wideo
Branża gier wideo jest prawdopodobnie jednym z pierwszych użytkowników AI. Wszystko zaczęło się od wykorzystania sztucznej inteligencji do generowania losowych poziomów, na których toczyła się rozgrywka. Obecnie jednak, liczba form w jakich wykorzystuje się AI wykracza daleko poza to, co jesteśmy w stanie sobie wyobrazić.
Jak AI przenika do branży gier? Kiedy grasz w grę, taką jak CS GO, PUBG lub Fortnite, zasadniczo rozpoczynasz grę przeciwko kilku botom wyposażonym w AI, a dopiero po ich pokonaniu przechodzisz do gry z realnymi zawodnikami. Nawet jeśli grasz w grę fabularną w trybie jednoosobowym, grasz przeciwko AI. W grach wyścigowych, ścigasz się z botami sztucznej inteligencji. Prawdopodobnie najciekawszym zastosowaniem AI, jakie widzieliśmy w grach, jest seria gier Middle Earth (pol. Śródziemie), w których wrogowie kontrolowani przez AI ewoluują w oparciu o ich interakcję z graczem i innymi elementami świata gry.
Można wiele powiedzieć o roli sztucznej inteligencji w grach komputerowych, ale ten artykuł musiałby być bardzo długi. Grając w jakąkolwiek grę, używamy sztucznej inteligencji.
Technologie zdalnego sterowania, czyli kto kim steruje
Pierwsze na świecie piloty były urządzeniami, które podczas I wojny światowej, za pomocą fal radiowych, naprowadzały okręty niemieckiej marynarki na kurs kolizyjny z alianckimi łodziami. W czasie II wojny światowej po raz pierwszy zdalnie zdetonowano bombę. Koniec wielkich wojen zostawił naukowcom genialną technologią, której jednak nie było gdzie zastosować. Sześćdziesiąt lat później niektórzy z nas potrafią spędzić godzinę na poszukiwaniu pilota, zanim przypomną sobie, że leży na telewizorze.
Współczesny świat, a zwłaszcza technologie, bardzo się rozwijają. Nie potrzeba już pilota by kontrolować daną maszynę – wystarczy zaprogramować konkretną sekwencję i urządzenie ją wykona. Inaczej mówiąc, zaprogramowana bomba nie potrzebuje ręcznej detonacji – wystarczy technologia zdalnego sterowania.
Czym są technologie zdalnego sterowania? To nic innego jak oprogramowanie lub maszyny zaprojektowane do wykonania określonych zadań. Ponieważ komputery nie rozumieją zwykłych języków naturalnych, do wykonania zadania wymagają komend we własnym języku maszynowym. Jest to język binarny, składający się wyłącznie z połączonych ze sobą serii zer i jedynek w określonej kombinacji. Każda aplikacja, której używasz na komputerze stacjonarnym, tablecie czy telefonie, skonstruowana jest przez połączenie niewyobrażalnej ilości kombinacji liczb 1 i 0.
Nasze życie wypełniają po brzegi zdalnie sterowane urządzenia – od ekspresu parzącego poranną kawę, poprzez sygnalizację świetlną w drodze do pracy, na maszynach w zakładach produkcyjnych kończąc.
Technologie zdalnie sterowane służą do:
- obsługi systemów, np. sygnalizacji świetlnej,
- czynności kontrolnych, np. ruchu robota,
- tworzenia gier wideo,
- kontroli urządzeń produkcyjnych, np. wycinarek laserowych.
Komputery postępują zgodnie z sekwencyjnymi instrukcjami w jakie zostały wyposażone. Projektując sekwencję do pomocy można użyć schematu blokowego, który umożliwia łatwe wdrażanie, porządkowanie lub usuwanie, komend.
Zalety komputerowych systemów sterowania:
- komputery nie potrzebują przerw;
- komputery mogą w nieskończoność powtarzać identyczne sekwencje działań;
- komputery mogą pracować w środowiskach niebezpiecznych dla ludzi.
Wady komputerowych systemów sterowania
- O jakości komputera decyduje jego oprogramowanie, które może zawierać błędy.
- Jeśli komputer jest wolny, może w sytuacji krytycznej, potrzebować zbyt dużo czasu, aby wykonać swoje zadanie.
- W przypadku wystąpienia okoliczności nieprzewidzianych w oprogramowaniu komputer nie będzie wiedział, co powinien zrobić.
Systemy zdalnego sterowania w domu
W naszych domach jest wiele przedmiotów, które wykorzystują systemy zdalnego sterowania. Obejmują one np.:
- czajniki elektryczne;
- pralki;
- piloty do telewizorów;
- dekodery telewizyjne;
- systemy alarmowe;
- roboty odkurzające.
Robotyka to dziedzina rozwijająca się dzięki zdalnemu sterowaniu. Możliwości robotów poprawią się wraz z rozwojem technologii i oprogramowania.
Jednym z obszarów, w którym robotyka odgrywa ważną rolę, jest bezzałogowa eksploracja odległych planet. Dzięki z góry zaprogramowanym działaniom i możliwości zdalnego sterowania, człowiek „rękoma technologii” jest w stanie dokonać wielu, jeszcze do niedawna, niemożliwych rzeczy.
CAD oraz CAM
Projektowanie wspomagane komputerowo (CAD) oraz komputerowe wspomaganie wytwarzania (CAM) polega na wykorzystaniu komputerów do projektowania produktów w 2D lub 3D, które następnie są drukowane w 3D.
Drukarki 3D i wycinarki laserowe to przykłady działania technologii zwanej CAD i CAM. Człowiek już nie musi obsługiwać maszyny, wystarczy, że zaprogramuje konkretny kształt i ją włączy.
Schematy blokowe i sekwencjonowanie
Oprogramowanie może być używane do tworzenia sekwencji na schemacie blokowym oraz do przeglądania symulacji na ekranie. Komendy połączone razem tworzą schemat blokowy.
Programowanie schematu blokowego składa się z:
- wprowadzenia sekwencji instrukcji, których wykonanie uruchomi proces,
- decyzji, które prowadzą do dwóch różnych działań,
- pętli, które powtarzają akcję, dopóki nie zostanie spełniony określony warunek,
- zmiennych, które przechowują dane do wykorzystania w podejmowaniu decyzji.
Programowanie wykonywane w sposób wizualny lub za pomocą schematu blokowego można wykorzystać do skupienia się na problemie do rozwiązania, bez konieczności rozpraszania się złożonością wykorzystywanego języka programowania.
Gry komputerowe
Gry opierają się na złożonym sekwencjonowaniu i programowaniu. W zależności od decyzji gracza, gra toczy się w różny sposób. Im bardziej skomplikowane jest sekwencjonowanie i programowanie, tym więcej opcji do wyboru ma gracz.
Poniżej prezentujemy przykładowe programy, które można wykorzystać do tworzenia gier:
- Adobe Flash,
- Scratch,
- Alice,
- MissionMaker.
Każdy z wymienionych programów ma swoją specyfikę. Na przykład, typowa gra utworzona w Scratch’u składa się ze skryptu lub listy poleceń, które powodują, że obiekt zachowuje się w określony sposób. Używa on własnego języka programowania- schematu blokowego, umożliwia on tworzenie interaktywnych historii, animacji, muzyki i sztuki. Dzięki niemu możliwe jest również, udostępnianie swoich dzieł innym osobom w społeczności online. Użytkownicy tworzą poszczególne sekwencje gry, łącząc bloki kodu w określonej kolejności za pomocą elementów graficznych zwanych duszkami.
Łatwo można zauważyć, że technologie zdalnego sterowania- jak wszystko na tym świecie- mają swoje plusy i minusy. Z jednej strony maszyny ratują nas przed monotonią wykonywania ciągle tych samych czynności, z drugiej wystarczy wprowadzić do programu jedną, malutką zmianę, by maszyna nie wiedziała jak ma zareagować.
Telemedycyna według da Vinci
System chirurgiczny da Vinci przypomina niemal grę wideo wyposażoną w futurystyczne elementy sterujące, interaktywne ramiona robotyczne i ekran 3D.
Na system da Vinci składają się: robot właściwy (który wykonuje operację na organizmie pacjenta) i oddzielna konsola sterująca (za jej pomocą chirurg kontroluje ruchy wykonywane przez robota).
Robot ma trzy małe, ruchome ramiona robotyczne, za pomocą których chwyta narzędzia chirurgiczne, takie jak skalpel, nożyczki lub instrumenty do elektrokoagulacji (wycinania tkanek za pomocą prądu elektrycznego o wysokiej częstotliwości i niskim napięciu). W trzecim ramieniu znajduje się kamera endoskopowa, która daje chirurgowi trójwymiarowy podgląd pola operacyjnego na konsoli sterowania.
Robot i jego ramiona są kontrolowane przez chirurga, który siedzi przy osobnej konsoli. Zwykle konsola znajduje się w tym samym pomieszczeniu, co pacjent, ale w przyszłości może się to zmienić. Podczas pracy chirurg, za pomocą wizjera mikroskopu stereoskopowego uzyskuje trójwymiarowy obraz pola operacyjnego, jednocześnie manewrując ramionami robota. Lekarz kontroluje ramiona robota za pomocą dwóch pedałów i dwóch kontrolerów ręcznych.
Robot rozpoznaje ruchy lekarza i przenosi je na ramiona, które wykonują operację. Robot odwzorowuje ruchy lekarza i czyni je bardziej precyzyjnymi oraz wydajnymi.
Robotyczny system chirurgiczny, taki jak Da Vinci, zapewnia chirurgowi zaawansowany zestaw instrumentów, dzięki temu stopień inwazyjności chirurgii wspomaganej robotycznie będzie minimalny. Termin „robotyczny” często wprowadza ludzi w błąd. Roboty nie wykonują samodzielnie operacji. To chirurg wykonuje operację używając narzędzi, które obsługuje za pomocą konsoli.
Wykorzystanie robotów w medycynie
Robotyczna operacja chirurgiczna nie jest możliwa we wszystkich rodzajach zabiegów, ale zastąpiła tradycyjną chirurgię otwartą w wielu dziedzinach, w szczególności w urologii i ginekologii. Obecnie jest powszechnie stosowana w zabiegach prostatektomii, nefrektomii i histerektomii, ale jest także coraz częściej stosowany do naprawy zastawek serca i innych złożonych operacji.
Wady
Dziś większość zabiegów urologicznych wykonuje się za pomocą robota da Vinci. Jest to ciągle zadziwiające zjawisko – zwłaszcza biorąc pod uwagę, że technologia ma zaledwie dziesięć lat. Jak każda nowa technologia medyczna nie jest pozbawiona wad.
Operacje z udziałem robotów na pewno nie wyeliminują otwartych, klasycznych operacji urologicznych i ginekologicznych. Aby nauczyć się korzystać z robotów podczas operacji, potrzebne są spore umiejętności. Szkolenia chirurgów do pracy z robotami są żmudne i powodują zmniejszenie ilości wykonywanych przez nich tradycyjnych operacji.
Wdrożenie robotów nie oznacza, że studenci medycyny przestaną uczyć się wykonywania tradycyjnych otwartych operacji, ta umiejętność pozostanie kluczowa. W większości krajów, w których robotyka nie jest jeszcze dość rozwinięta, chirurdzy nadal wykonują tradycyjne, otwarte operacje.
Analizując rozwój robotyki w chirurgii, można zaobserwować interesującą prawidłowość dotyczącą korelacji wieku lekarza z korzystaniem przez niego z nowoczesnych rozwiązań. Młodsi chirurdzy, którzy mają doświadczenie jako gracze, częściej decydują się na operacje z wykorzystaniem robotów. Wielu pacjentów preferuje tego typu operację, nawet jeśli lekarz doradza tradycyjną operację otwartą. Chirurgia robotyczna rozwija się bardzo szybko. Niektórzy uznani chirurdzy, z dnia na dzień, prawie stracili swoje praktyki, ponieważ nie byli w stanie wystarczająco szybko nauczyć się obsługi nowej technologii.
Przyszłość chirurgii robotycznej
Najbardziej niezwykłe w chirurgii robotycznej jest to, co może przynieść przyszłość. Lekarze przewidują rozwój telemedycyny i operacji na odległość, gdzie lekarz mógłby operować pacjenta w innym mieście, kraju, a nawet na innym kontynencie. W praktyce oznaczałoby to, że centra chirurgiczne byłyby zakładane w różnych częściach świata, a lekarz mógłby udać się do któregokolwiek centrum i zza konsoli kontrolnej zdalnie wykonywać zabieg. Może to stanowić świetne rozwiązanie, gdy dany specjalista znajduje się daleko od pacjenta.
7 września 2001 roku zrealizowano projekt o nazwie Operacja Lindbergh (nazwa pochodzi od nazwiska pilota, który zasłynął pierwszym przelotem między lądem Ameryki Północnej a Europą bez międzylądowań). Była to pierwsza międzykontynentalna teleoperacja. Robotem wykonującym zadania chirurgiczne był ZEUS. 68-letnia pacjentka znajdująca się w Strasburgu została poddana zabiegowi usunięcia pęcherzyka żółciowego (cholecystektomia) przez francuskiego lekarza, znajdującego się w tym czasie w Nowym Jorku, doktora Jacques’a Marescaux. Ponieważ odległość między miastami wynosiła 6230 km, potrzebne było szybkie i niezawodne łącze o minimalnym czasie opóźnienia. Zastosowano łącze światłowodowe ATM o przepustowości 10 Mb/s. Opóźnienie między ruchem manipulatora konsoli sterowania a ruchem robota wynosiło 155 ms. Operacja zakończyła się pomyślnie po 54 minutach. Chociaż zabieg ten mógł być przeprowadzony taniej przez lekarzy-asystentów nadzorujących stan pacjentki, prezentacja ta udowodniła, że teleoperacje są możliwe do wykonania nawet jeśli lekarza i pacjenta dzieli znaczna odległość. W przyszłości będą mogły być przeprowadzane niezależnie od otaczających warunkach, np. w środku działań wojennych lub w kosmosie. W przyszłości pojawi się telemedycyna, w której chirurg będzie mógł operować kogoś na innym kontynencie.
Rozwój telemedycyny oznaczać będzie także zwiększenie poziom konkurencji między lekarzami, którzy będą musieli rywalizować o oferty pracy. Podniosłoby to jakość usług medycznych i zmusiło chirurgów do ciągłego doskonalenia swoich umiejętności tak aby stali się najlepszymi fachowcami w swojej dziedzinie.
Sztuczna inteligencja- lekarstwo na realne problemy, część I
Sztuczna inteligencja może obecnie wykonywać wiele zadań poznawczych, takich samych jakie mogą wykonywać ludzie, ale wciąż nie rozumiemy, jak myśli algorytm AI. Google DeepMind planuje przeprowadzić zakrojone na szeroką skalę testy ludzkich zdolności poznawczych na ,,umysłach” maszyn, aby dowiedzieć się, jak działają.
Długotrwałym problemem w badaniach nad sztuczną inteligencją jest fakt, że głębokie sieci neuronowe są dla naukowców „białymi plamami” na mapie ludzkiego ciała. Nie można stwierdzić, jak działają te algorytmy, patrząc tylko na ich kod. Uczą się poprzez trening danych i nie ma prostego schematu ich przepływu, który można by było w jakiś sposób wykorzystać. Sposób, w jaki te sieci podejmują decyzje, jest zakodowany w splocie tysięcy stymulowanych neuronów.
Nasze mózgi nie są jedynymi nieodgadnionymi maszynami myślącymi. Po prostu grzebiąc w ludzkich mózgach, szukano wskazówek, jak ludzie rozumują, i tak przez lata psychologowie poznawczy opracowali testy zaprojektowane do badania naszych zdolności mentalnych.
Gdyby sztucznej inteligencji dostarczyć informacji na temat środowiska, w którym funkcjonuje człowiek to- według naukowców- ludzie i sztuczna inteligencja mogliby osiągnąć porównywalne wyniki w testach wiedzy. To powinno nie tylko ułatwić bezpośrednie porównywanie ludzi i maszyn, ale także umożliwić interpretację wyników z zgodnie istniejącą literaturą akademicką z zakresu psychologii poznawczej.
Możliwość wykorzystania wiedzy zgromadzonej w ciągu 150 lat badań nad psychologią, może być niezwykle przydatna, w zrozumieniu funkcjonowania najnowszych systemów sztucznej inteligencji.
Sztuczna inteligencja- lekarstwo na realne problemy, część II
W ostatnich latach coraz bardziej koncentrujemy się na wykorzystaniu systemów AI do generowania skomplikowanych symulacji i zadań wykonywanych w środowisku 3D. Skomplikowana natura tych środowisk i różnorodność strategii, które systemy te mogą wykorzystywać do rozwiązywania problemów, sprawia, że trudno jest określić, jaka kombinacja zdolności poznawczych leży u podstaw ich działania.
Dzięki poddaniu testom najnowocześniejszego silnika gier komputerowych UNREAL ENGINE naukowcy z firmy Psychlab, byli w stanie poznać szczegóły pracy systemu percepcyjnego człowieka, a nawet wykorzystać zdobyte informacje do poprawy jego działania.
Okazuje się, że system UNREAL ma znacznie gorszą ostrość widzenia, niż ludzie, co oznacza, że uczy się szybciej, gdy ćwiczy na dużych przedmiotach. Za ostrość widzenia oka człowieka odpowiadają fotoreceptory gęsto skupione w centrum siatkówki zwanym plamką żółtą, co daje nam szczególnie ostry obraz w centrum naszego pola widzenia.
Nie tylko DeepMind wykorzystuje testy poznawcze w pracach nad rozwojem sztucznej inteligencji. Badacze z Uniwersytetu w Michigan poddawali szczury stymulacji mającej wzmacniać umiejętność wykonywania zadań związanych z nawigacją w labiryncie, czyli klasycznym metodom służącym do testowania pamięci i zdolności uczenia się szczurów.
Labirynty zostały zbudowane w Minecrafcie, sztuczna inteligencja dostawała do wykonania zadania o różnym stopniu trudności, a za ich wykonanie otrzymywała nagrody, aby dowiedzieć się, jakie umiejętności poznawcze były ważne dla pomyślnego poruszania się po eksperymencie. Okazało się, że możliwość odzyskania wspomnień w oparciu o kontekst, w którym były przechowywane, była kluczem do rozwiązania tych testów.
Ponieważ sztuczna inteligencja stale poprawia i rozwija zdolności poznawcze wyższego rzędu (takie jak rozumowanie, inteligencja emocjonalna i planowanie), bardziej wyrafinowane testy psychologiczne mogą stać się kluczowym sposobem, za pomocą którego zrozumiemy, w jaki sposób procesy mentalne maszyn różnią się od naszych. Możemy być pewni, że zaobserwujemy pewne różnice.
Zrozumienie tych procesów może stać się ważnym narzędziem, dzięki któremu, w przyszłości, ludzie i sztuczna inteligencja będą mogli współistnieć w zgodzie.
Chatbot Orange, część I
Chatboty i AI poprawią jakość obsługi klienta
Sztuczna inteligencja (AI) i uczenie maszynowe pomagają zrewolucjonizować wiele zróżnicowanych zadań we wszystkich gałęziach przemysłu, od linii produkcyjnych po sprzedaż detaliczną online. A dzięki technologiom takim jak automatyzacja procesów robotycznych (RPA) i chatboty, AI szybko podbija coraz to nowe sektory świata biznesu. Akceptacja dla zastosowania AI w codziennym życiu konsumentów stale rośnie. Coraz powszechniej stosuje się urządzenia i aplikacje obsługujące AI, od inteligentnych urządzeń i dronów do samoobsługowych kiosków i pojazdów autonomicznych. Wydaje się, że ludzie stają się coraz bardziej wygodni w zakresie sztucznej inteligencji i korzyści, jakie może przynieść – szczególnie w sektorze obsługi klienta.
RPA odmienia podróż klienta
RPA (Robotic Process Automation) automatyzuje szereg procesów biznesowych do tej pory obsługiwanych przez ludzi, a jego oprogramowanie pomaga usprawnić tradycyjne działania oparte na regułach w ramach podróży klienta. Klasyczna podróż klienta obejmuje wszystkie kroki podejmowane przez klienta przy próbie zakupu produktu lub usługi od dostawcy. Podróże klientów mogą być stosunkowo proste lub skomplikowane, mogą być pojedynczą interakcją między konsumentem a dostawcą lub długotrwałym procesem. Po drodze zwykle pojawiają się pewne problemy, ale RPA może być doskonałym narzędziem pomagającym przezwyciężyć wyzwania i przynoszącym ogromne korzyści. Ale czego mogą oczekiwać firmy wdrażające rozwiązania RPA i AI? O tym przekonacie się już za tydzień.
Chatbot Orange, część II
Wzniesienie zadowolenia klienta na wyższy poziom Chatboty odgrywają również kluczową rolę w kształtowaniu pozytywnych doświadczeń klientów, a coraz więcej firm korzysta z nich, aby zaspokoić rosnące zapotrzebowanie na wielokanałowe podejście do obsługi klienta. Chatboty posiadają technologię poznawczą, która pozwala im interpretować zapytania klientów, zarówno pisemne jak i głosowe, i odpowiadać dokładnymi, zautomatyzowanymi odpowiedziami, które mają na celu szybkie rozwiązywanie rutynowych problemów z obsługą klienta. Chatboty pomagają firmom skrócić czas reakcji, zapewniając jednocześnie całodobową obecność i ostatecznie poprawić ogólne wrażenia klientów. Ci wirtualni asystenci wyposażeni są w gigabajty danych o ofertach firmy, a w niektórych przypadkach są w stanie zaspokoić 99% potrzeb klientów. Mogą rozmawiać w wielu językach i wykorzystywać naturalny język, dzięki czemu dialog między klientami i wirtualnymi asystentami jest płynny. Zbierają również dane, które mogą dostarczyć cennych informacji na temat potrzeb klientów, dzięki temu ludzie mogą skupić się na bardziej skomplikowanych zadaniach. Jednym z takich inteligentnych botów głosowych jest Max – chatbot firmy telekomunikacyjnej Orange. Nie jest jeszcze na tyle zaawansowany, by w udzielaniu odpowiedzi zastąpić żywego konsultanta, ale zbiera potrzebne informacje, które ułatwiają proces komunikacyjny z firmą. Max dokonuje identyfikacji klienta (poprzez PESEL, kod abonencki czy ID), a następnie przyjmuje zgłoszenie o awarii lub udzieli informacji o płatnościach. Wszystkie czynności wykonuje głosowo, więc nie trzeba ręcznie wpisywać komend numerycznych. Póki co bot nie jest w stanie zastąpić człowieka, gdy Max dociera do kresu swoich możliwości, niczym do starszego brata, zwraca się o pomoc do żywego konsultanta. Firma ma nadzieję na szersze wykorzystanie chatbotów, by mogły nie tylko zbierać dane, ale odpowiadać na pytania klientów w równie sprawny sposób co realni konsultanci. Potęga czwartej rewolucji przemysłowej RPA szybko staje się kolejnym krokiem w automatyzacji. Oparte na chmurze RPA wykorzystuje uczenie maszynowe do naśladowania działań użytkownika i mapowania ogromnych ilości danych, uczenia się i adaptacji. Dzięki temu będzie w stanie przejąć dużą liczbę czasochłonnych obowiązków, których wypełnianie obarczone jest ryzykiem błędu, takich jak przetwarzanie zamówień, bez potrzeby ingerencji człowieka lub wyraźnego programowania instrukcji. Zależność RPA od wielkości implementacji oznacza, że jej zastosowanie i wdrożenie może zająć zaledwie kilka tygodni lub miesięcy, a nie lat. Badania rynku potwierdzają prawdopodobny potencjał RPA: według Global Market Insights, wartość rynku RPA ma przekroczyć 5 miliardów dolarów do 2024 r., spowodowane jest to faktem, że organizacje dążą do zwiększenia swoich możliwości i wydajności przy jednoczesnym obniżeniu kosztów operacyjnych. Według Annette Zimmerman, wiceprezesa ds. analiz Gartnera, w ciągu zaledwie kilku lat 25% interakcji z klientami będzie będzie odbywać się w przestrzeni wirtualnej lub za pomocą asystenta opartego na RPA. Gartner przewiduje również, że jedna trzecia wszystkich zawodów zostanie zastąpiona przez automaty i inteligentne maszyny do 2025 roku. Jest to technologia, której czas już nadszedł, ponieważ firmy wciąż dążą do zapewnienia najlepszej możliwej obsługi wszystkim swoim klientom.
Boty w instytucjach rządowych, część I
O tym, czym są chat boty i do czego można je wykorzystać pisaliśmy TUTAJ. Pokrótce został też zaprezentowany bot Max firmy Orange. W tym artykule dowiecie się czegoś więcej o wirtualnej asystentce Monice, która przybliży tajemnice jakie kryje w sobie ZUS.
Chatboty zadomowiły się są prawie we wszystkich sektorach gospodarki i w każdym z nich okazały się przydatne. Wszystkie branże chętnie korzystają z chatbotów i już wiemy, że ludzie uwielbiają interakcję z nimi. Nie tylko odpowiadają w ciągu kilku sekund, ale także, dzięki uczeniu maszynowemu, udzielają dokładnych odpowiedzi. Przedsiębiorstwa prywatne szybko zaczęły wykorzystywać chatboty, podczas gdy w sektorach publicznych tempo ich wdrażania jest wolniejsze.
Naprzeciw oczekiwaniom klientów wychodzi ZUS ze swoim botem Moniką. Jest to przyjazna asystentka, która chętnie odpowie na nasze pytania związane z instytucją. Dostarcza informacji o uprawnieniach do świadczeń z ubezpieczenia społecznego, indywidualnych kontach ubezpieczonych, a także o pobieraniu składek na ubezpieczenie społeczne i zdrowotne. Dodatkową cechą wyróżniającą tego wirtualnego asystenta jest możliwość korzystania z LiveChat i Virtual Tour – symulacji stacjonarnego inspektoratu ZUS
Boty w instytucjach rządowych, część II
Wraz z częstym używaniem chatbotów w biznesie, w wielu firmach rozpoczął się proces automatyzacji obsługi klienta, realizacji usług itp., dzięki czemu wygenerowano znaczne oszczędności. Największe wykorzystanie chat botów występuje w branżach e-commerce, stosuje je aż 90% firm. Z wirtualnych asystentów korzysta się również w sektorach ubezpieczeń, zdrowia, handlu detalicznego, hotelarstwa i wielu innych. Rynek chatbotów rośnie nieustannie w szybkim tempie.
Chatboty są również wdrażane w sektorze rządowym, mają umożliwić szybki dostęp obywateli do danych publicznych i zgłaszania skarg. Wdrożenie chatbotów w różnych agencjach rządowych całkowicie zmienia komunikację między obywatelami a rządem. Wiele problemów, z którymi zmaga się obywatel wymaga od niego wizyty w urzędzie. Na samą myśl większość wyobraża sobie niekończące się kolejki zwykle kończące się odejściem z kwitkiem. Dzięki wirtualnym doradcom mamy dostęp do informacji publicznej bez wychodzenia z domu i możemy niejako sami rozwiązać własne problemy.
Czemu chatboty są idealnym rozwiązaniem dla agencji rządowych? Oto zestaw ich najważniejszych zalet:
- chatboty są niedrogie: utrzymanie bota wiąże się jedynie z opłacaniem dostępu do chmury;
- chatboty pracują 24 godziny na dobę, 7 dni w tygodniu, 365 dni w roku: ludzie chcą usług poza normalnymi godzinami pracy od 9:00 do 17:00;
- chatboty mogą zmniejszyć ciężar zapytań, na które urzędnik musiałby odpowiedzieć.
W jaki sposób chatbot może wpływać na zadowolenie klienta:
- szybsza obsługa: skrócenie czasu oczekiwania klienta zawsze poprawia jakość jego obsługi; agencje rządowe mogą korzystać z chatbotów, aby natychmiast obsłużyć proste żądania klientów i rozładować kolejki oczekujących na połączenie z konsultantem;
- łatwość użycia: ponieważ chatboty komunikują się z użytkownikiem za pomocą języka naturalnego, w zasadzie ma potrzeby uczenia się sposobu ich używania – jeśli wiesz, jak czytać i pisać, to wiesz, jak używać chatbota.
O dwóch takich, dzięki którym mamy Wiedźmina, część I
Co łączy Wiedźmina i Cyberpunk? Genialna fabuła? Odważny główny bohater? Obszerne uniwersum? Tak, ale przede wszystkim łączy je polski producent CD Project RED.
Jak to często bywa w biznesie, wszystko zaczęło się od pasji, pomysłu i… szkolnej przyjaźni. Marcin Iwiński i Michał Kiciński poznali się w liceum:
Michała spotkałem w ławce szkolnej w liceum. Wszedłem do klasy, było wolne miejsce, więc usiadłem. Kończąc liceum mieliśmy wspólne nieobecności z powodu urywania się z zajęć, żeby pograć w gry. Zdecydowaliśmy się na założenie firmy. To był przełomowy moment, bo wtedy wchodziły pierwsze gry na nośnikach CD. Sprowadzaliśmy po kilka sztuk, sprzedawaliśmy to na giełdzie.
Po latach wspomina Marcin Iwiński.
Przygodę z biznesem zaczęli w 1994 roku i właśnie wtedy założyli CDP.pl. Była to pierwsza spółka z grupy kapitałowej CD PROJECT. Na początku panowie zajmowali się importowaniem płyt CD na rynek polski ze Stanów Zjednoczonych.
Zaledwie po dwóch latach, w 1996 roku, CDP.pl zaczął wydawać gry z polskimi instrukcjami i w polskich pudełkach przeznaczone na krajowy rynek. Coś, co dzisiaj wydaje się nam oczywiste, wtedy było czymś nieznanym. Był to, z komercyjnego punktu widzenia, strzał w dziesiątkę.
Kolejnym wielkim krokiem dla rozwoju firmy było stworzenie pierwszej, w pełni polskiej wersji językowej gry Baldur’s Gate. Wśród aktorów użyczających swojego głosu znaleźli się m.in. Krzysztof Kowalewski, Piotr Fronczewski, Wiktor Zborowski, Marian Opania i Jan Kobuszewski.
Dzięki temu w kolejnych latach CDP.pl mógł poszerzyć swoją ofertę wydawniczą o światowe hity takie jak: Diablo II czy Baldur’s Gate II. Firma stała się polskim dystrybutorem takich wydawców jak np. Atari, Cryo, Konami, Microsoft, Ubisoft czy Sega.
O dwóch takich, dzięki którym mamy Wiedźmina, część II
Dystrybucja nie była jednak szczytem marzeń założycieli CD PROJECT. Kiedy w 2002 roku uruchomiono kolejną spółkę CD Project Red Studio Sp. z o.o., marzenie o wydaniu własnej gry stało się jeszcze bliższe.
Polscy wizjonerzy postanowili ożywić pomysł swojego rodaka, Andrzeja Sapkowskiego, znanego im doskonale autora książek i opowiadań fantasy. Przy Wiedźminie pracowało przez 5 lat blisko 100 osób, a budżet gry wyniósł prawie 20 mln zł. Na tamte czasy była to najdroższa rodzima produkcja.
Wiedźmin okazał się strzałem w dziesiątkę i poza sukcesem finansowym zdobył ponad 100 różnych nagród oraz wyróżnień, m.in. od GameSpot, GameSpy i IGN-u dla najlepszej gry fabularnej.
Kolejne części Wiedźmina, a także dodatki do gry, przynosiły coraz większe zyski, nagrody i sławę CD PROJECT-owi. Obecnie w studiu powstają kolejne duże projekty, takie jak Cyberpunk 2077 (o którym pisaliśmy trochę TUTAJ), jego premiera zapowiedziana jest na 10 grudnia 2020 roku.
Patrząc na drogę jaką firma CD PROJECT pokonała od jej założenia do miejsca, w którym jest teraz, nie ma wątpliwości, że ci dwaj panowie jeszcze nie raz nas zaskoczą.
Przezczaszkowa stymulacja magnetyczna, część I
Każdego roku w samych Stanach Zjednoczonych ponad 30 000 ludzi popełnia samobójstwo, przyczyną 60% z nich jest depresja. Często kroki podejmowane w celu rozwiązania problemu są zbyt wolne, a sami pacjenci leczą się metodami, które nie przynoszą rezultatów.
Powszechnie wiadomo, że antydepresanty nie działają na wszystkich chorych. Z badania opublikowanego w czasopiśmie American Medical Association wynika, że 4,5 miliona cierpiących na depresję Amerykanów nie reaguje w pełni na antydepresanty przepisywane na receptę.
Dobrą wiadomością jest to, że istnieją, nie farmakologiczne zabiegi, takie jak przezczaszkowa stymulacja magnetyczna (TMS). Od 2010 r. Amerykańskie Towarzystwo Psychiatryczne zaleciło stosowanie przezczaszkowej stymulacji magnetycznej (z ang. transcranial magnetic stimulation, czyli TMS) jako leczenia drugiego rzutu u dorosłych pacjentów z depresją, u których początkowe leczenie przeciwdepresyjne nie przyniosło oczekiwanych rezultatów.
Pomimo tego, że jest to jedna z nowszych metod leczenia depresji (pierwsza maszyna od NeuroStar została zatwierdzona przez FDA w 2008 r.), TMS jest sprawdzoną terapią z imponującymi wskaźnikami skuteczności i wynikami badań.
Jak działa TMS?
W przeciwieństwie do terapii elektrowstrząsami, która stosuje energię elektryczną do bezpośredniej stymulacji mózgu w celu wywołania drgawek, TMS jest nieinwazyjną metodą leczenia. Stosując TMS wykorzystuje się impulsy magnetyczne w celu stymulowania obszarów mózgu, które są nieaktywne w depresji, np. kory przedczołowej. Podczas zabiegu nie stosuje się narkozy, pacjenci mogą wrócić do codziennych czynności, w tym do prowadzenia pojazdów, bezpośrednio po sesji.Podczas pierwszej sesji leczenia lekarze identyfikują próg motoryczny pacjenta, następnie ustalają natężenie pola magnetycznego, które będzie stosowane podczas całego leczenia. Siła pola dostosowywana jest do indywidualnych potrzeb każdego pacjenta, aby zapewnić mu właściwą dawkę leczniczą.Poszczególne sesje TMS nie trwają długo. Urządzenie może dostarczyć odpowiednią dawkę prądu już w 19 minut. Terapię zwykle stosuje się pięć razy tygodniu przez okres czterech do sześciu tygodni. Pod koniec leczenia stopniowo zmniejsza się liczbę zabiegów.
Przezczaszkowa stymulacja magnetyczna, część II
Dla kogo TMS?
TMS jest wskazany w leczeniu dorosłych pacjentów z nasiloną depresją, którzy nie zareagowali na żaden z podawanych leków przeciwdepresyjnych. TMS może jednak nie być odpowiednią terapią dla wszystkich pacjentów. Przed zastosowaniem tej metody leczenia niezbędne jest przeprowadzenie z pacjentem wywiadu medycznego. Metody TMS nie należy stosować u pacjentów, którzy mają w ciele niemożliwy do usunięcia metal przewodzący impulsy elektromagnetyczne lub implanty stymulujące w głowie lub w jej pobliżu lub u pacjentów z aktywnymi lub nieaktywnymi implantami, takimi jak głębokie stymulatory mózgu, implanty ślimakowe lub stymulatory nerwu błędnego.Dla tych, którzy nie reagują na leki lub którzy nie tolerują negatywnych skutków ubocznych leków i chcą wypróbować inne terapie, TMS może być realną alternatywą. Najczęstszym działaniem niepożądanym związanym z TMS, jest łagodny lub umiarkowany ból lub dyskomfort w miejscu leczenia lub w jego pobliżu, jest to jednak efekt przejściowy, występujący zazwyczaj tylko w pierwszym tygodniu leczenia.
Czy TMS jest skuteczny?
Wiele badań potwierdza skuteczność TMS w leczeniu depresji. Badanie kontrolne na losowej próbie 199 pacjentów wykazało, że po sześciu tygodniach terapii TMS szanse remisji zwiększyły się czterokrotnie w porównaniu z grupą kontrolną stymulowaną placebo. W przeprowadzonym badaniu otwartym stwierdzono, że 58% pacjentów w znacznym stopniu reagowało na leczenie, a 37% osiągnęło pełną remisję objawów depresji.Reakcje pacjenta na leczenie są różne, niektóre z nich dają pozytywne wyniki w ciągu pierwszych kilku tygodni. Skuteczność testów lustrzanych TMS wynika z badań klinicznych. Pacjenci biorący udział w badaniach przyjmowali przeciętnie dziewięć antydepresantów, a średnia długość leczenia depresji wynosiła trzy do pięciu lat.
Systemy planowania zasobów przedsiębiorstwa (ERP), część I
Planowanie zasobów przedsiębiorstwa (ERP) to proces wykorzystywany przez firmy do zarządzania integracją poszczególnych części ich działalności. Istnieje wiele aplikacji ERP, które pomagają przedsiębiorstwom wdrażać planowanie zasobów, poprzez integrację wszystkich procesów, potrzebnych do prowadzenia firmy, za pomocą jednego systemu. Mechanizm oprogramowania ERP może integrować planowanie, zakup zapasów, sprzedaż, marketing, finanse, zasoby ludzkie i inne elementy.
Zrozumienie planowania zasobów przedsiębiorstwa
System planowania zasobów przedsiębiorstwa można porównać do kleju, który łączy ze sobą sieci komputerowe w dużych organizacjach. Bez aplikacji ERP każdy dział miałby własny system zoptymalizowany pod kątem jego konkretnych zadań. Dzięki temu oprogramowaniu każdy dział nadal ma własny system, ale wszystkie systemy można połączyć za pomocą jednej aplikacji z przejrzystym interfejsem.
Aplikacje ERP ułatwiają również komunikację i wymianę informacji pomiędzy poszczególnymi działami firmy. Dzięki systemom gromadzącym informacje o aktywności i stanie różnych działów oraz udostępniającym te informacje innym wydziałom, przedsiębiorstwo staje się bardziej produktywne.
Programy ERP mogą pomóc korporacjom w identyfikacji posiadanych zasobów poprzez udostępnianie informacji o produkcji, finansach, dystrybucji i zasobach ludzkich. Dzięki spójnej bazie różnych technologii wykorzystywanych w różnych działach przedsiębiorstwa, aplikacja ERP pomoże wyeliminować technologie kosztowne, niekompatybilne i wzajemnie pokrywające się. ERP integruje również w jednym miejscu konta płatnicze, systemy kontroli zapasów, systemy monitorowania zamówień i bazy danych klientów.
Oferta ERP ewoluowała przez lata z tradycyjnych modeli oprogramowania, które wykorzystują fizyczne serwery klienckie, do oprogramowania w chmurze, które oferuje zdalny dostęp przez Internet.
Korzyści z ERP:
· Zredukowane koszty IT
Chociaż ERP jest często kosztowną inwestycją, finalnie może pomóc zredukować koszty obsługi IT i poprawić wydajność firmy. Zamiast wydawać zasoby na wiele systemów, których obsługa wymaga zatrudnienia dodatkowego personelu, infrastruktury, zespołów wsparcia i licencji, firma może skoncentrować wszystkie te koszty w jednym systemie ERP. Ponadto, może okazać się, że wdrożenie scentralizowanego systemu ERP, może nawet pomóc zaoszczędzić na ogólnych kosztach IT, poprzez redukcję liczby wykorzystywanych systemów informatycznych. Korzystanie z jednego systemu zmniejsza również wymagania szkoleniowe dla użytkowników końcowych, ponieważ uczą się oni tylko jednego systemu, a nie interakcji z wieloma różnymi aplikacjami.
· Całkowita przejrzystość
Ta zaleta systemu ERP jest jedną z przyczyn popularności, tego oprogramowania. ERP umożliwia pełny dostęp do każdego ważnego procesu w firmie, dzięki czemu właściciel, albo zarząd, może w każdej chwili pobrać dane z wybranego działu. System ERP doskonale sprawdza się, jako narzędzie do codziennego monitorowania poziomu zapasów, statusu odbieranych i nadawanych przesyłek, oraz stanu łańcucha dostaw. Wiedząc dokładnie, jaki jest stan zasobów, można bardziej precyzyjnie kontrolować kapitał obrotowy.
· Raportowanie i planowanie
Przejrzystość jest główną zaletą ERP. Wdrożenie pakietu ERP we wszystkich działach oznacza, że organizacja ma pojedynczy, zunifikowany system raportowania dla każdego procesu. Dzięki jednej, centralnej bazie danych system ERP może w każdej chwili łatwo wygenerować przydatne raporty i analizy. To oprogramowanie umożliwia analizowanie oraz porównywanie funkcji we wszystkich działach, bez konieczności korzystania z wielu arkuszy kalkulacyjnych i e-maili. Najpopularniejszą funkcją ERP jest generowanie raportów finansowych. Programy mają zwykle predefiniowane standardowe raporty finansowe, takie jak zestawienia dochodów i przepływów pieniężnych, a raporty niestandardowe można łatwo wygenerować bez interwencji informatyka.
· Wygodne dostosowywanie
Jedną z największych zalet współczesnego oprogramowania do planowania zasobów przedsiębiorstwa jest układ modułowy. Większość dostawców w ramach ERP oferuje zestaw kilku aplikacji, które mogą być wdrażane razem w zależności od potrzeb biznesowych, każda z nich jest zaprojektowana tak, aby mogła pracować samodzielnie lub zintegrować się z większym pakietem. W ten sposób firma może wybrać, które komponenty są jej najpotrzebniejsze i skomponować optymalny zestaw.
· Poprawiona wydajność
Oprócz obniżenia kosztów obsługi IT i szkoleń pracowników, system ERP może skrócić czas oraz wysiłek wkładany przez pracowników w wykonywanie codziennych czynności. Odpowiednio zaimplementowany system ERP może znacznie ograniczyć lub wyeliminować powtarzające się procesy wykonywane dotychczas ręcznie, dzięki czemu członkowie zespołu mogą skupić się na innych zadaniach, zwiększających przychody firmy. System może również pomóc w przyjęciu i egzekwowaniu najlepszych praktyk w branży, dostosowując do nich sposób zarządzania przedsiębiorstwem.
Systemy planowania zasobów przedsiębiorstwa (ERP), część II
Obsługa klienta
Funkcjonowanie systemu ERP przynosi korzyści także klientom firmy, większosć z nich nawet nie zdaje sobie z tego sprawy. Baza danych klientów jest scentralizowana i sprawnie zarządzana, a zespół sprzedażowy może skoncentrować się na budowaniu oraz utrzymywaniu dobrych relacji z klientami, nikt nie musi już wertować arkuszy kalkulacyjnych. Ostatecznie najważniejszą rzeczą, dla biznesmena, to pozyskanie i utrzymanie klientów. Dzięki funkcjom śledzenia i podglądu oferowanym przez ERP, firma może zapewnić lepszą interakcję z klientem, dedykowane działania marketingowe, oraz obsługę klienta w tzw. późnej fazie.
Bezpieczeństwo i jakość danych
Jedną z największych zalet systemu ERP jest bezpieczeństwo danych – w końcu są one sednem tej koncepcji. Udostępnianie danych w ,,silosach funkcjonalnych” takich jak: obsługa klienta, sprzedaż, marketing i rozwój biznesu, usprawnia współpracę w całej firmie. Drugą stroną szerokiego dostępu do danych jest możliwość sprawowania kontroli nad tym, kto może zobaczyć i edytować informacje. Rozwiązania ERP uwzględniają wewnętrzne procedury kontrolne, zapewniające bezpieczeństwo danych.
Ulepszona współpraca i przepływ informacji
Współpraca jest istotną częścią dobrze prosperującego biznesu. Prowadzenie firmy wymaga dużo czasu i wysiłku. ERP sprawia, że współpraca idzie jak po maśle. Platforma ERP usprawnia proces współpracy z innymi podmiotami, zapewniając pracownikom dostęp do potrzebnych im danych, za pomocą międzywydziałowej bazy danych, czyli jednej scentralizowanej lokalizacji, w której przechowywane są informacje z każdego działu.
Standaryzowane procesy biznesowe
Większość systemów ERP jest opracowywana zgodnie z najlepszymi praktykami branżowymi. Te wypróbowane i rzetelne procesy przynoszą duże korzyści dla wszystkich firm, niezależnie od ich wielkości. Za pomocą ERP firmy mogą przeprowadzić standaryzację własnych procesów oraz systemów, co dodatkowo zwiększa ich produktywność i wydajność.
Ułatwienia w wypełnianiu zaleceń
Jednym z najtrudniejszych zadań bieżących przedsiębiorstw jest dostosowywanie się do kolejnych przepisów. Utrzymanie doskonałej dokładności w dokumentacji finansowej nie jest łatwe, ale konieczne. Systemy ERP pomagają w przestrzeganiu przepisów dzięki bezpiecznym i zatwierdzonym danym w połączeniu z wbudowanymi raportami. Raporty te można również zautomatyzować, aby zmniejszyć koszty ciągłych audytów.
Ulepszone zarządzanie łańcuchem dostaw
Niektóre firmy, aby funkcjonować muszą gromadzić fizyczne zapasy swoich produktów, system ERP na wiele sposobów ułatwia zarządzanie łańcuchem dostaw. Dzięki temu możliwe jest skrócenie czasu realizacji i terminowości dostaw, co wpływa na sukces firmy. W dobrze zaprojektowanej platformie ERP łańcuch dostaw może stać się korzystniejszy i lepiej reagować dzięki efektywniejszemu prognozowaniu popytu, zarządzaniu zapasami i zamówieniami. Usprawniony łańcuch dostaw ułatwia również innowacje produkcyjne, które pomagają obniżyć koszty i opracować nowe produkty, zapewniające firmie przewagę konkurencyjną, której potrzebuje, aby pozostać na czele.
Wyższa skalowalność
Aby zapewnić ciągły sukces firmy, trzeba wybiegać w przyszłość. Zbyt często firmy nie planują swoich działań właściwie i doświadczają poważnych, wciąż narastających problemów, uniemożliwiających im rozwój. Niezwykle ważne dla rozwoju firmy jest posiadanie systemu, który pozwoli skuteczne planowanie, a odpowiedni system ERP to zapewnia.
Udogodnienia na lotniskach, część I
Oczekiwanie na lotnisku jest niestety nieuniknioną częścią doświadczenia jakim jest podróż samolotem. Jeśli nie stoisz w kolejce, najprawdopodobniej usiądziesz, w oczekiwaniu na aktualizację ekranu z informacją o locie lub z niecierpliwością będziesz wyczekiwał zmiany lampki z czerwonej na zieloną, co będzie znakiem umożliwiającym ci wejście na pokład samolotu. Zbyt długi czas spędzony na lotnisku jest uważany za czas stracony, zwłaszcza przez podróżujących służbowo.
Jednak w odpowiedzi na niezaspokojoną potrzebę pasażerów aby być ciągle on-line i determinację wśród podróżujących w interesach, aby pozostać równie produktywnymi podczas podróży (także w powietrzu), porty i linie lotnicze podejmują nowatorskie środki, aby umożliwić pasażerom pracę. Poniżej przedstawiamy, naszym zdaniem najciekawsze, przykłady zagospodarowania wolnego czasu na różnych lotniskach świata.
Thinkpody i Workboksy dla osób podróżujących służbowo
Najpierw na lotniskach wydzielano miejsca do spania dla pasażerów, aby mogli odpocząć w zaciszu małego, samodzielnego „pokoju”. Teraz pasażerowie mogą spędzić czas w miniaturowym biurze przy terminalu lub na osobistych stanowiskach pracy w specjalnych salonach. Dwa największe lotniska w Wielkiej Brytanii ogłosiły nawet, że podróżni, mogą u nich otworzyć mobilne biura swoich firm.
Na lotnisku Heathrow nowe centrum biznesowe zlokalizowane na Terminalu 5 będzie oferować kilka samodzielnych stanowisk pracy znanych jako „thinkpods” (stanowiska umożliwiające pracę z laptopem), z kolei lotnisko Gatwick stworzy strefę Business Workbox o powierzchni czterech metrów kwadratowych. Będą to mini biura, w których pasażerowie mogą wysyłać e-maile lub wykonywać połączenia telefoniczne do ostatniej chwili przed wejściem na pokład. Zamiast oburzać się na czas zmarnowany w kolejce przy bramce, pasażerowie będą mogli pracować tak, jakby byli we własnym biurze.
Na londyńskim lotnisku City Airport – popularnym wśród podróżujących w interesach – ma wkrótce powstać, pierwszy w mieście Bloomberg Hub, oferujący łączność Wi-Fi i zapewniający pasażerom dostęp do najnowszych wiadomości biznesowych i finansowych.
Strefy relaksu, joga i wycieczki po mieście dla turystów
Lotniska i linie lotnicze chętnie zajmują się nie tylko podróżującymi w interesach. Na lotnisku O’Hare w Chicago pasażerowie mogą odstresować się w specjalnym pokoju do jogi. Do dyspozycji podróżnych są maty, samouczki wideo i ekran z informacjami o lotach, podróżni mogą oderwać się od gorączkowej atmosfery lotniska i zrelaksować przed dalszą podróżą.
Lotnisko w Helsinkach, stworzyło z kolei cały obszar relaksu z miękkimi fotelami i lampami ułatwiającymi zasypianie oraz atmosferą typową dla fińskiej kultury. Lotnisko w Monachium otworzyło niedawno nowy, bezpłatny obszar rekreacyjny, z 34 miejscami do siedzenia i 20 stanowiskami pracy. Na lotnisku Fort Worth International Airport w Dallas zmęczeni podróżni mogą skorzystać z centrum drzemki, wyposażonego w dziewięć przeznaczonych do spania apartamentów, które można wynajmować na godziny.
Turkish Airlines oferuje swoim pasażerom, oczekującym na przesiadkę minimum 6 godzin, bezpłatną wycieczkę po Stambule. Jest to świetny przykład tego, jak czas spędzony na oczekiwaniu na lot, może stać się niezapomnianą częścią doświadczenia z podróży.
Na uwagę zasługuje także Singapurskie Lotnisko Changi, które oferuje pasażerom oczekującym na lot szereg rozrywek. Wśród nich znajduje się pierwszy na świecie lotniskowy ogród motyli, a także kino, a nawet basen na dachu.
Punkty ładowania smartfonów, laptopów i tabletów
Tymczasem w Stanach Zjednoczonych linie lotnicze United Airlines stały się pierwszym przewoźnikiem, który docenił znaczenie osobistych urządzeń elektronicznych dla współczesnego podróżnika. Firma zapowiedziała instalację prawie 500 stacji ładowania przy bramkach na różnych lotniskach.
Prekursorem tego rozwiązania są jednak linie lotnicze Delta Air Lines, które zainstalowały podobne rozwiązania w wielu obsługiwanych przez siebie portach lotniczych, w tym w 20 największych lotniskach w USA. United chce zapewnić pasażerom możliwość ładowania ich laptopów, smartfonów, tabletów i czytników e-booków podczas oczekiwania na lot, bez obaw o wyładowanie baterii w połowie podróży.
Udogodnienia na lotniskach, część II
Salony lotniskowe urządzone z poczuciem smaku i kącikami zabawy
Tradycyjny salon lotniskowy niekoniecznie musi być uważany za innowacyjne podejście do poprawy komfortu pasażerów. Jednak sposoby, do jakich uciekają się linie lotnicze zapewniając komfort podróżnym, są zdumiewające.
Na przykład na lotnisku Tokyo Haneda pasażerowie mogą zrelaksować się, w niedawno odnowionych, salonach Sakura Lounges, które zostały zaprojektowane wokół tematu „Serce Japonii”. Dekoracje poczekalni, inspirowane są tradycyjnymi dziełami sztuki i jedzeniem, a z okna rozpościera się widok na centrum Tokio. Koncepcją remontu było stworzenie środowiska odzwierciedlającego narodowy styl japoński.
Ponownie, propozycja Turkish Airlines stanowi przykład dobrej praktyki w tej dziedzinie, z jej nowym flagowym salonem Turkish Airlines Istanbul na lotnisku Atatürka, który szczyci się herbaciarnią nie gorszą od tych położonych w centrum Stambułu. Jest tam miniaturowa makieta miasta, restauracja turecka a nawet symulator golfa i stół bilardowy.
Nowoczesne formy komunikacji ułatwiające pasażerom odprężenie
Podczas gdy pasażerowie korzystają z przygotowanych udogodnień, miejsc odpoczynku, wycieczek po mieście i salonów inspirowanych lokalnym folklorem, muszą uważać na aktualizacje lotów i bram. Na szczęście lotniska i linie lotnicze zaczynają coraz częściej brać pod uwagę również i ten problem, tworząc rozwiązania mobilne, które mogą przyczynić się do uspokojenia podróżnych oczekujących na lotnisku.
Liczba podróżnych posiadających najmniej jedno osobiste urządzenie elektroniczne, takie jak tablet lub smartfon gwałtownie rośnie, dla lotnisk i linii lotniczych oznacza to możliwość zmiany formy komunikacji z pasażerem podczas podróży.
Międzynarodowy Port Lotniczy w Leeds Bradford wprowadził opartą na Twitterze „Tweetową tablicę odlotów”, która zdalnie wysyła pasażerom informacje istotne dla ich lotu, EasyJet dodał do swojej aplikacji na iPhone’a powiadomienia push, co oznacza, że pasażerowie mogą być powiadamiani o zmianie statusu lotu. Zamiast siedzieć i wpatrywać się w ekran informacyjny, otrzymują powiadomienie na smartfona.
Z tego rozwiązania skorzystało między innymi lotnisko we Frankfurcie, które dodało powiadomienia push do najnowszej wersji swojej aplikacji na smartfony oraz spółka SEA Aeroporti di Milano, która oferuje podobną usługę na zarządzanych przez siebie lotniskach Linate i Malpensa w Mediolanie.
Innowacje zwiększające komfort pasażerów
Linie lotnicze i lotniska są często oskarżane o to, że nie robią wystarczająco dużo, aby wywrzeć pozytywne wrażenie na pasażerach. Te przykłady dostarczają dowodów, że ogólne zadowolenie staje się powoli priorytetem branży. Niemal we wszystkich przypadkach inicjatywy te przynoszą korzyści wszystkim zaangażowanym w nie organizatorom podróży, ponieważ znaczną poprawę w zakresie satysfakcji z obsługi lotniskowej pasażerów można osiągnąć przy stosunkowo niewielkich kosztach.
Na przykład, obszar relaksu na lotnisku w Helsinkach wykorzystuje przestrzeń terminalową, która była wcześniej nieużywana. Bloomberg Hub w London City Airport jest finansowany przez Bloomberga, który chce zwiększyć świadomość marki wśród swojej idealnej grupy docelowej. Turkish Airlines mogą sobie pozwolić na bezpłatne wycieczki po Stambule dzięki, korzystnej dla obu stron, współpracy z Tour Istanbul. Reasumując efekt utrzymania pasażerów i zapewnienie im możliwości spędzenia czasu, w maksymalnie przyjemny i relaksujący sposób, można osiągnąć dzięki niewielkim innowacjom.
Ewolucja technologii: przeszłość, teraźniejszość i przyszłość, część I
Technologia rządzi obecnie naszym życiem. Smartfony, tablety i komputery – naprawdę nie możemy już bez nich funkcjonować. W bardzo krótkim czasie technologia eksplodowała na rynku i wiele osób nie wyobraża sobie życia bez niej.
Aby zrozumieć, w jaki sposób opuściliśmy epokę ciemności (co tak naprawdę nie stało się tak dawno temu) oraz gdzie jesteśmy dzisiaj, ważne jest, aby zrozumieć, jak rozwija się technologia i dlaczego rozwój technologii miał tak kolosalne znaczenie.
CEL NAPĘDZA TECHNOLOGIĘ DO PRZODU
Wszystkie technologie rodzą się aby ułatwić osiągnięcie celu. Na przykład, wyszukiwarki stworzono z myślą o sortowaniu ogromnych ilości danych dostępnych w Internecie. Każda nowa technologia jednocześnie wpływa na istniejące technologie, aby razem mogły stworzyć coś lepszego. Na tym polega postęp.
Ewolucja technologiczna postępuje błyskawicznie i nic dziwnego, że wszyscy próbujemy za nią nadążyć. Szczerze mówiąc, obszary życia w które wkroczyła technologia są tak rozległe, że omówienie ich wszystkich w jednym poście na blogu jest praktycznie niemożliwe.
Oto krótkie spojrzenie na to, jak szybko Internet i technologia ewoluowały w ostatnich latach.
PRZESZŁOŚĆ: ŚWIAT POZNAŁ INTERNET
W latach 90., Internet był nowością, która szybko spopularyzowała się wśród firm i gospodarstw domowych. Dla ludzi żyjących w tym czasie charakterystyczny dźwięk niezmiernie powolnego połączenia telefonicznego z Internetem to niezbyt miłe wspomnienie (!!!!).
Na szczęście, w miarę rosnącej popularności Internetu, technologia rozwinęła się na tyle, aby wyeliminować konieczność korzystania przy połączeniu z linii telefonicznej, zapewniła również szybsze połączenia z Internetem.
DYSKIETKI, CZYLI COŚ CO WYGLĄDA JAK IKONKA ZAPISU
Udostępnianie informacji stopniowo zaczęło być coraz łatwiejsze. Zamiast przekazywać dyskietkę lub dysk CD-ROM, ludzie zaczęli wysyłać dokumenty pocztą e-mail, a duże pliki przechowywać na nośnikach USB lub dyskach flash.
Wraz z szybkim rozwojem Internetu zmienił się sposób, w jaki ludzie żyją, pracują, zmienił się model ich aktywności. Dyskietki już dawno odesłaliśmy w niepamięć, już niedługo ten sam los czeka pozostałe fizyczne nośników pamięci, liczba ich użytkowników nieustannie spada.
TERAŹNIEJSZOŚĆ: SNAPY, CZATY I PODWÓJNE DOTKNIĘCIA
Przewiń to trochę do przodu. Tylko krótko! Przecież ci mówiłem! W latach 20. XXI wieku aby zrozumieć ten dialog niezbędna jest uwaga dodatkowa: chodzi o taśmy VHS. Pamiętacie szybkie przewijanie do przodu? OK, możemy iść dalej.
Obecnie dostęp do Internetu jest możliwy prawie wszędzie. W dzisiejszych czasach klienci rzadko odwiedzają kawiarnię, bibliotekę lub inny lokal usługowy jeśli nie mają dostępu do sygnału Wi-Fi. Jeśli nawet nie ma dostępu do sygnału w bliskiej odległości, większość ludzi nadal ma dostęp do Internetu przez komórkowe połączenie danych na smartfonach i osobistych hotspotach, odcięcie od sieci nie stanowi już problemu.
NA WSZYSTKO JEST APLIKACJA
Dzięki dostępowi do Internetu w dowolnym miejscu i czasie firmy stworzyły aplikacje internetowe, aby odpowiedzieć na wspólne potrzeby konsumentów. Te aplikacje mogą zrobić wszystko, od dostarczenia informacji o posiłku po wysyłanie ogromnych ilości danych jednym kliknięciem przycisku.
EWOLUCJA I REWOLUCJA KOMUNIKACJI
Sposób, w jaki się komunikujemy, również ewoluował. Pamiętasz rozmowy osobiste? Odręczne listy? Oczekiwanie na połączenie przez telefon – taki z przewodem? Technologia nieustannie kształtuje sposób w jaki się komunikujemy. Internet, jednak odhumanizował komunikację. Stałe łącze wydaje się być nazwą gry. Wraz z połączeniem natychmiast stajemy się dostępni. Połączenia Bluetooth, SMS-y, każda inna forma aplikacji do przesyłania wiadomości – podczas jazdy, podczas spotkań, w domu. Wszędzie jesteśmy on-line.
Ewolucja technologii: przeszłość, teraźniejszość i przyszłość, część II
MYSPACE, YOURSPACE, BOOKFACE: PRZEBUDZENIE W MEDIACH SPOŁECZNOŚCIOWYCH
Obserwowaliśmy ewolucję komunikacji tekstowej od SMS-ów do MMS-ów, szczyt osiągnęła dzięki wirusowemu rozprzestrzenianiu się gifów, memów, emoji i bitmoji. Niestety, wraz z gwałtownym wzrostem udostępnianych treści wideo, kurczy się sfera komunikacji tekstowej (np. SnapChat, Instagram Stories, Facebook Stories, Periscope, Vine itp.).
Sieci społecznościowe wciąż zmieniają sposób, w jaki ludzie się ze sobą komunikują. Jak na ironię, stałe połączenie i nieustanne interakcje między użytkownikami zmieniają charakter kontaktów on-line na coraz bardziej powierzchowny. Choć czasem powierzchowna, ta forma komunikacji pomaga ludziom pozostać bliżej siebie, bez tej możliwości komunikacji, zapewne straciliby ze sobą kontakt.
TWARZĄ W TWARZ (WIRTUALNE ROZMOWY)
Rozmowy twarzą w twarz za pośrednictwem technologii są ciągle rozwijane, umożliwia to, rosnąca jakość wideo i możliwości przesyłania strumieniowego. Dzięki internetowym wideokonferencjom, zostały zniesione bariery geograficzne, które kiedyś utrudniały komunikację. Firmy mogą kontaktować się z klientami w sposób bardziej ludzki, ludzie mogą rozmawiać ze sobą twarzą w twarz bez konieczności kosztownych podróży, a dotarcie do ludzi na całym świecie jest szybsze i łatwiejsze.
ODCINANIE PRZEWODU: ERA STRUMIENIOWANIA WIDEO
Czy wiesz, że początkowo Netflix był przede wszystkim dostawcą płyt DVD i dostarczał klientom ich ulubione filmy pocztą?
Dzisiaj ludzie, coraz chętniej ,,odcinają przewód”, wybierając cyfrowy streaming wideo w takich serwisach jak Netflix, YouTube i Hulu. Wielkie marki chcą nadążyć za widzami i konkurować nawzajem oryginalnością oferowanych treści, dostępnością i różnorodnością obsługiwanych platform (np. Apple TV, Amazon Fire TV, Google TV itp.). Komentarze użytkowników również zdają się to potwierdzać. Dzięki funkcjom strumieniowania portali społecznościowych, takim jak Facebook Live, Instagram Live i Periscope, osoby prywatne i firmy mogą dzielić się na żywo produkowanymi filmami i treściami multimedialnymi. Filmy pojawiają się wszędzie a ich popularność ciągle rośnie.
PRZYSZŁOŚĆ NALEŻY DO CHMURY OBLICZENIOWEJ
Coraz więcej osób prywatnych i firm korzysta z usług opartych na chmurze. W odróżnieniu od lokalnych nośników pamięci, działających tylko na jednym urządzeniu, dzięki chmurze zyskujemy dostęp do danych na wszystkich urządzeniach podłączonych do Internetu. Ta zmiana modelu dostępu do danych, ma ogromny wpływ na sposób prowadzenia działalności, zmieniła nasze tradycyjne środowisko biurowe i sposób pracy w wielu firmach. Dyski flash prawie wyszły z użycia z powodu popularyzacji usług chmurowych, takich jak iCloud, Dysk Google, Dropbox i witryny FTP.
Nowe technologie zmieniły sposób, w jaki ludzie uzyskują dostęp do informacji i kontaktują się ze sobą, tempo ich dalszego rozwoju wydaje się obiecujące.
PRZYSZŁOŚĆ: NOWE TRENDY NA HORYZONCIE
Ponieważ coraz więcej istniejących technologii łączy się ze sobą, zarówno konsumenci, jak i firmy mogą spodziewać się większych możliwości jakie uzyskamy dzięki przyszłej technologii. Technologia będzie w stanie osiągnąć o wiele więcej, zostanie usprawniona tak, aby nasza praca była łatwiejsza.
Chociaż nie jesteśmy w stanie przewidzieć przyszłości, możemy spekulować na temat ewolucji technologii. Ciągle obserwujemy pojawiające się nowe media i nowe trendy rozwojowe.
SMART JEST SEKSI
Przez pojęcie „smart” (z ang. inteligentny) rozumiemy ciągłą ewolucję urządzeń i rozwój technologii sztucznej inteligencji (AI).
Urządzenia inteligentne będą ewoluowały, aby lepiej ze sobą współpracować. Maszyny te będą udostępniać dane automatycznie, ograniczając potrzebę zaangażowania człowieka. Oczywiście rynek nie ograniczy się tylko do smartfonów, zegarków, telewizorów czy tabletów.
INTERNET RZECZY
W przyszłości będziesz słyszał coraz więcej o „Internecie rzeczy” (IoT). Im głębiej wchodzimy w technologię, tym bardziej wydaje się, że próbujemy połączyć świat fizyczny i wirtualny. Inteligentne głośniki, inteligentne domy, a nawet inteligentne samochody to trend technologiczny, który utrzyma się także w przyszłości, a to dopiero początek.
Pomyśl o Internecie rzeczy jako o sieci fizycznych urządzeń – takich jak podręczne gadżety, pojazdy, sprzęty gospodarstwa domowego lub jakikolwiek inne sprzęty elektroniczne sterowane za pomocą oprogramowania – będą połączone razem i zdolne do wymiany danych.
Gartner, firma analityczna, szacuje, że do końca 2020 r. ponad 26 miliardów urządzeń na świecie zostanie podłączonych do Internetu. Wyobraź sobie przyszłość, w której twój samochód ostrzega cię o dużym natężeniu ruchu lub budzik powiadamia o zaparzeniu kawy w kuchni. Wyobraź sobie życie w inteligentnym domu, w inteligentnym mieście.
Przyszłość dzieje się teraz, na naszych oczach. Możemy być pewni, że zawita do nas wcześniej, niż ktokolwiek się spodziewa.
PO CO MĘCZYĆ SIĘ PRÓBUJĄC NADĄŻYĆ ZA TECHNOLOGIĄ?
To uczciwe pytanie. Technologia ciągle się zmienia i czasem wydaje się, że wysiłek jest zbyt duży i nie da się nadążyć za ruchomym celem. Pamiętaj tylko o tym, że nadążanie za technologią stanowi wartość dodaną dla ciebie i twojej firmy.
Bycie na bieżąco pomaga upewnić się, że nie przegapisz okazji. Pamiętasz firmę Kodak? Nauczyli nas wszystkich bezcennej lekcji: nie bój się zmian
Oto kilka sposobów, aby być na bieżąco:
- Obserwuj blogi branżowe (takie jak nasze! Już dziś polub nasz profil na Facebooku).
- Posłuchaj liderów branży.
- Śledź tematy w mediach społecznościowych.
- Dołącz do grup (online i osobiście).
- Słuchaj podcastów.
- Weź udział w forach technicznych.
- Subskrybuj odpowiednie e-biuletyny.
- Skonfiguruj alerty Google.
Czy androidy mieszkają w dolinie niesamowitości? Część I
Żyjemy w czasach nowoczesnej technologii, czas zapoznać się, z niestety dość ograniczoną, rynkową ofertą tego, co możemy nazwać być robotami. Dla niektórych wyda się to zaskakujące, ale roboty mogą być zarówno pomocne, futurystyczne, opłacalne, a czasem nawet słodkie. Samo określenie „robot” kojarzy się nam ze zlepkiem metalowych części przypominających człowieka, ale współczesne roboty nie do końca tak wyglądają.
Po pierwsze, musimy określić jaka jest różnica między Robotem Humanoidalnym, Cyborgiem i Androidem? Oto najprostsze definicje:
- Humanoidalny Robot jest mechanicznym odwzorowaniem ludzkiej postaci. Innymi słowy, ma rozpoznawalne kończyny, głowę i tułów. Jednym z najwcześniej zbudowanych humanoidów był Eric, który powstał w 1928 r. Niedawno przebudowano go na potrzeby London Science Museum. Współczesnym przykładem może być Atlas firmy Boston Dynamics.
- Cyborg jest żywą istotą- zwykle, chociaż niekoniecznie ludzką, z mechatronicznie ulepszonymi funkcjami życiowymi. Taki opis przywołuje na myśl obraz fikcyjnego Robocopa, ale technicznie rzecz biorąc, użytkownik aparatu słuchowego również jest cyborgiem.
- Android jest bardzo zaawansowanym robotem humanoidalnym zaprojektowanym tak, aby nie można było go odróżnić od człowieka. Nie trzeba dodawać, że nie ma obecnie znanych przykładów tego „ideału”. Najlepsze, nazywane androidami, roboty to tylko realistyczne wizualnie próby, od prawie stu lat możemy za to przeczytać o androidach w literaturze science-fiction.
„Dolina niesamowitości”
W latach siedemdziesiątych XX w. profesor robotyki, Masahiro Mori, przewidywał, że wraz z poprawą wyglądu humanoidalnych robotów reakcje, stykających się z nimi, obserwatorów będą coraz bardziej pozytywne i empatyczne. Jednak w pewnym momencie, gdy podobieństwo robota do człowieka wynosi około 80%, odsetek pozytywnych reakcji drastycznie spada. Dalsza poprawa podobieństwa skutkuje jednak gwałtownym wzrostem pozytywnych reakcji aż całkowitej akceptacji, w momencie gdy robot staje się nie do odróżnienia od żywego człowieka. To zanurzenie widoczne na wykresie (rysunek poniżej) zostało nazwane doliną niesamowitości, jest tograficzne przedstawienie charakterystycznego spadku emocjonalnych reakcji, który występuje, gdy spotykamy istotę, która nie jest człowiekiem, ale do złudzenia go przypomina.
Koncepcja Mori stała się impulsem do wielu dyskusji, ale dopiero rzeczywiste roboty, w przeciwieństwie do symulacji opartych na technice animacji komputerowej (CGI) w kinie, zaczynają zbliżać się do „doliny”. Trudność polega nie na identyfikacji cech konkretnego robota, które wywołują negatywną reakcję, na przykład wyglądu oczu, ale na ustaleniu tego subtelnego punktu po przekroczeniu, którego czujemy się nieswojo. Być może w przypadku robotów też istnieje funkcja matematyczna, taka jak Złota Proporcja w kompozycji malarskiej lub fotograficznej, która pomaga odróżnić zwykłą fotkę od dzieła sztuki. Jeśli tak, to w świecie androidów jeszcze nie została odkryta.
Czy androidy mieszkają w Dolinie Niesamowitości? Część II
Humanoidalne roboty, które przekraczają granicę akceptowalnego realizmu postrzegane są przez ludzi jako przerażające. Chociaż jest to odczucie wysoce subiektywne, większość obserwatorów zgadza się co do odczuwania pewnego poziomu przerażenia na widok konkretnego robota.
Możliwe, że współczesne roboty osiągnęły już poziom realizmu plasujący się w dolinie niesamowitości: jakość ich wykonania jest doskonała, zapewnia wysoki stopień realizmu statycznego, ale nie gwarantuje prawidłowego odtwarzania skomplikowanych ruchów twarzy. Głównym problemem, który musi pokonać projektant androida jest odtworzenie wszystkich drobnych ruchów ludzkiej twarzy i zsynchronizowanie ich z głosem. Aby pokonać dolinę robot musi doskonale opanować „język ciała”.
Kandydatem do tytułu „Najbardziej realistycznego androida” może być Sophia z Hanson Robotics. Pisaliśmy o niej tutaj. Warto wiedzieć, że eventy promocyjne firmy, podczas których Sophia jest prezentowana publiczności, są w dużej mierze inscenizowane. Niemniej jednak Sophia imponuje wysoce realistyczną mimiką twarzy, czy chociażby przekręcaniem głowy w stronę rozmówcy, kiedy „słucha”.
Pomijając nawet fakt, że tył jej głowy jest przezroczysty, Sophia i tak wydaje się przerażająca. Konfrontacja androida z prawdziwym człowiekiem jest bardzo interesującym doświadczeniem, pozwala zobaczyć, jak daleko posunęła się technologia i ile ma jeszcze do nadrobienia.
Więc jaki jest akceptowalny realizm w zakresie robotów? Od wieków artyści tworzą rzeźby, które ciężko jest odróżnić od istot żywych. Całkowicie normalnym jest stworzenie idealnie podobnego obrazu człowieka i będzie on podziwiany, dopóki się nie rusza. Roboty są z definicji aktywne. Odwzorowanie ruchu jest kluczowym wyzwaniem przy próbie skonstruowania sztucznego człowieka. Język ciała, zwłaszcza mimika twarzy, jest zrozumiała dla każdego, nawet dla małego dziecka. Robot, który nie jest w stanie „mówić” tym językiem, będzie tylko robotem, na dodatek o nieco złowieszczym wyglądzie, jego inteligencja nic tutaj nie znaczy.
Czy ludzie marzą o doskonałych androidach?
W literackich opisach maszyn wzorowanych na ludziach możemy znaleźć wskazówki na temat naszych oczekiwań co do idealnego Androida. Co ciekawe, w futurystycznych filmach, które pokazują wizje przyszłego konfliktu między ludźmi a robotami, często pojawiają się androidy doskonale podobne do ludzi np. w nowej serii Westworld i Humans, Blade Runnerze, a nawet Terminatorze. Sugeruje to, że ludzie wolą niedoskonałe maszyny, dzięki temu unikają zamieszania i nieporozumień. Nie, żebyśmy się martwili, że roboty przejmą kontrolę nad światem. Być może cała idea doskonałej w 100% ludzkiej repliki nigdy nie zyska akceptacji.
Roboty społeczne
Zbudowanie niemal realistycznego humanoidalnego robota, który może sprawić, że ludzki obserwator poczuje się nieswojo w jego obecności nie jest takie proste. Nad tym poważnym wyzwaniem głowią się projektanci robotów społecznych, których rozwój obecnie uważany jest za priorytet, ponieważ mogłyby przejąć rolę opiekunów osób starszych, lub nauczycieli tych najmłodszych.
Antropomorfizm
Antropomorfizm to przypisywanie ludzkich cech, emocji lub intencji nie-ludzkim istotom. Ta definicja brzmi jak opis procesu tworzenia Androida, ale nie do końca nią jest. Antropomorfizmem nazywamy również, specyficzną wyłącznie dla ludzi umiejętność interpretowania działań zwierzęcia np. psa, w kategoriach ludzkich emocji. Potrafimy zrobić to nawet w odniesieniu do nieożywionego obiektu, takiego jak samochód.
Czy ludzie są problemem?
Apokaliptyczne filmy pokazujące dominację robotów nad człowiekiem, raz za razem prezentują nam co się stanie, kiedy roboty przejmą kontrolę nad światem. Ale czy to faktycznie możliwe?
Ludzie mają tendencję do nadużywania chatbotów, robotów i asystentów głosowych wszędzie tam, gdzie istnieje taka możliwość. Alexa, Siri, czy maszyny wykorzystywane w życiu codziennym – wszystkie cierpliwie znoszą nasze humory, przejawiające się w formie słownego braku szacunku, przekleństw, a nawet przemocy fizycznej. Maszyna nie czuje, więc możemy sobie pozwolić wobec niej na wszystko. Ale czy to się nie zmieni gdy stworzyć robota podobnego do człowieka? Ludzie oczekują, że roboty będą im wiernie służyć i zaspokajać wszystkie potrzeby, jednocześnie cierpliwie znosząc nadużycia.
Czy kiedykolwiek osiągniemy punkt, w którym tworzone przez nas roboty, staną się całkowicie nie do odróżnienia od ludzi, zasypując tym samym dolinę niesamowitości? A jeśli nam się nie uda, jak bardzo rozwinie się robotyka? Aby odpowiedzieć na te pytania musi jeszcze upłynąć wiele czasu. Możecie być jednak pewni, że odpowiedzi na te pytania znajdziecie kiedyś na naszym blogu.
Kim jest Sophie?
Gumowe twarze rozciągające się w znajome kształty, napędzane przez maleńkie silniki i zaawansowaną wersję sztucznej inteligencji – czy tak będzie wyglądać przyszłość?
Poznaj Sophię, robota społecznościowego stworzonego przez byłego inżyniera Disneya – Davida Hansona. Wzorowana po części na Audrey Hepburn, a po części na żonie Hansona, Sophie została zbudowana w celu naśladowania zachowań społecznych oraz uczuć ludzkich.
Od czasu jej zaprezentowania w 2016 roku Sophie nieustannie zadziwia. Za sprawą występów w licznych programach telewizyjnych i wielu udzielonych wywiadów stała się sławna.
Podczas gali promującej jedną z konferencji technologicznych, władze Królestwa Arabii Saudyjskiej postanowiły nawet przyznać Sophie obywatelstwo saudyjskie – dość ironiczne posunięcie, biorąc pod uwagę jak ograniczonymi prawami obywatelskimi dysponują saudyjskie kobiety i zatrudnieni tam migranci.
David Hanson, twórca Sophii, zawsze tworzył urządzenia o niespotykanym stopniu realizmu, nawet jeszcze przed rozpoczęciem prac nad robotem społecznościowym. We wcześniejszej pracy inżyniera w parku rozrywki Disney’a zdobył umiejętności tworzenia animatronicznych lalek, na przykład z podobizną Alberta Einsteina.
Sophia ma możliwość rozpoznawania twarzy i podstawowy silnik chatbota. Oglądanie nieoficjalnych nagrań z jej wywiadów telewizyjnych dostarcza rzetelnych informacji o prawdziwych możliwościach sztucznej inteligencji pozbawionych przekłamań medialnych.
Eksperci zdają sobie sprawę, że Sophia mechanicznie odpowiada na pytania. Jest tak naprawdę chatbotem, w którym słowa kluczowe uruchamiają, często nieodpowiednie segmenty językowe. Czasami po prostu zapada cisza.
W społeczności AI twierdzenia, głoszone przez Hansona i jego głównego inżyniera Bena Goertzela, uchodzą za kontrowersyjne.
Jednym z najgorszych przykładów takich twierdzeń jest teza postawiona przez Hansona w rozmowie z Jimmym Fallonem, mówiąca że „ona jest w zasadzie żywa”. Przy innych okazjach Hanson mówi o świadomości Sophii, o jej zdolnościach słyszenia i czucia. Oczywiście jest to nonsens.
Według Hansona Sophia ma możliwość poruszania każdym większym mięśniem swojej twarzy, pozwala jej to generować między innymi uczucia: radości, smutku, ciekawości, zamieszania, kontemplacji czy frustracji.
Oprócz implementacji sztucznej inteligencji, twórca zadbał również o wygląd zewnętrzny twarzy Sophii. Dzięki wykorzystaniu najnowszych osiągnięć technologii materiałowej twarz wydaje się miękka i elastyczna, a zatem bardziej realistyczna. Trwają również badania laboratoryjne nad neurobiologią i biologią ludzkiej mimiki twarzy, aby pomóc w informowaniu, jak powinny zachowywać się mechaniczne mięśnie.
Jak do tej pory stworzono tylko jeden egzemplarz Sophii, więc prawdopodobieństwo masowego wysypu robotów tego typu jest znikoma. A nawet jeśli jest ich więcej, wciąż musimy rozmyślać nad całą koncepcją praw robotów, ich obywatelstwa i tego, w jaki sposób mają współistnieć z człowiekiem, bez krzywdy dla żadnej ze stron. Na razie, podczas gdy Sophia jest niewątpliwie „inteligentnym” robotem i bardzo fajnym, gadającym kawałkiem technologii, zdecydowanie działa na skrypcie, a zatem brakuje jej „prawdziwej” wiedzy, jak to określają wolnomyśliciele. Ale dajmy Hansonowi czas, a to prawdopodobnie się zmieni – tak czy inaczej, Sophia powstała ku dalszemu rozwojowi cywilizacji. Ma na szczęście pokojowe zamiary… ale czy na pewno?
Lem- prorok współczesności, część I
Sztuczna inteligencja, wirtualna rzeczywistość, nanotechnologia, trans-humanizm- polski autor Stanisław Lem myślał i pisał wiele dekad temu o sprawach, które dzisiaj, na naszych oczach przechodzą ze sfery science-fiction do świata rzeczywistego.
Stanisława Lema (1921-2006) na pewno nie można nazwać ,,pisarzem szablonowym”. Tworzył utwory synkretyczne łączące cechy horroru, powieści detektywistycznej, realizmu typowego dla autobiografii oraz eseju. W Polsce i na świecie najbardziej znany jest, jako twórca fantastyki naukowej, w opisywanych przez niego królestwach zamieszkiwały roboty, cyborgi i inteligentne maszyny różnych typów. Duża część jego prac dotyczy spotkań ludzi i sztucznej inteligencji; przez te bliskie spotkania zadaje pytania o naturę inteligencji, ludzkości i jaźni.
E-booki, tablety, smartfony, wyszukiwarka Google, a nawet Matrix zostały wymyślone w połowie XX wieku przez autora Solaris, pisał o nich zanim jeszcze się pojawiły. Oto jak Stanisław Lem przewidział przyszłość, w której żyjemy.
Optony, lektony, triony i fantomy … Możesz nie znać tych słów, ale używasz większości tych rzeczy w swoim codziennym życiu. Klasyczny polski autor science fiction Stanisław Lem wymyślił wiele nowoczesnych przedmiotów na długo przed tym, zanim stały się częścią naszego codziennego życia.
Oto niektóre z jego najwspanialszych przewidywań, wraz z obawami, które wciąż definiują niektóre z naszych największych dzisiejszych pytań, w tym te o biotechnologię i transhumanizm.
E-książki i tablety
Stanisław Lem był prawdopodobnie pierwszym pisarzem science fiction, który trafnie przewidział koniec papierowych książek i pojawienie się ich elektronicznych substytutów, czyli e-booków. Zrobił to w swojej, wydanej już w 1961 r. powieści „Powrót z gwiazd”, jakieś 40 lat przed pierwszymi próbami z e-papierem. Lem wyobrażał sobie e-booki jako małe kryształy pamięci, które można by było załadować na urządzenie, niesamowicie przypominając współczesne tablety. W powieści to urządzenie nazywa się „opton”, ale jego realny odpowiednik to oczywiście Kindle.
Książki audio
W tej samej książce Lem przewidział także popularność audiobooków, które nazwał „lektonami”:
,,Ale optony były mało używane, powiedział mi robot sprzedaży. Publiczność wolała wykłady – podobnie jak lektury czytane na głos, można je ustawić na dowolny głos, tempo i modulację.”
Roboty sprzedażowe wciąż pozostają w sferze fikcji, ale jesteśmy już na etapie audiobooków, możemy też dowolnie regulować tempo odtwarzania audiobooków i podcastów.
Internet
Już na początku lat 50. Lem zastanawiał się nad możliwością połączenia potężnych komputerów w celu zwiększenia ich mocy obliczeniowej. W zbiorze esejów pt. „Dialogi” z 1957 r. naszkicował powstanie Internetu. W jego wizji świata stopniowe gromadzenie „maszyn informatycznych” i „banków pamięci” doprowadziłoby do ustanowienia „krajowych, kontynentalnych, a później planetarnych sieci komputerowych”.
Lem, który zmarł w 2006 roku, doczekał się spełnienia wielu z jego przewidywań, w tym Internetu. Pod koniec życia przyznawał, że jest tym zaskoczony. Jego słynna, choć nigdy nie potwierdzona, reakcja po pierwszym kontakcie z internetem była dość gorzką recenzją. Podobno stwierdził:
Dopóki nie skorzystałem z Internetu, nie wiedziałem, że na świecie jest tylu idiotów.
Mniej więcej w tym samym czasie w twórczości Lema, pojawił się motyw gigantycznej, wirtualnej bazy danych, do której dostęp mają wszyscy ludzie na Ziemi, Lem nazwał tę bazę „Biblioteką Trionów”. Same Triony były maleńkimi kryształkami kwarcu, „których struktura cząstek mogła zostać trwale zmieniona”. Triony działały jak nowoczesne pendrive’y, ale były połączone falami radiowymi, tworząc gigantyczną bibliotekę wiedzy w standardzie, który dziś określilibyśmy, jako Wi-Fi. Tak opisał je Lem w swoim „Obłoku Magellana” z 1955 r.:
Trion może przechowywać nie tylko luminescencyjne obrazy, w formie odwzorowania w strukturze krystalicznej, np. obrazy stron książek, wszelkiego rodzaju zdjęcia, mapy, obrazy, wykresy i tabele – innymi słowy, wszystko, co można zaobserwować wzrokiem. Równie łatwo Trion może przechowywać dźwięki, ludzki głos, a także muzykę, jest też w stanie nagrywać zapachy.
Opis stworzonej, przez Lema Biblioteki Trionów dość dokładnie pasuje do tego co, dzisiaj nazywamy Internetem, łącznie z wyszukiwarką Google. Nadal, jednak cierpliwie czekamy na możliwość przechowywania zapachów.
Lem- prorok współczesności, część II
Smartfony
W przytaczanym już w poprzednim wpisie ,,Obłoku Magellana” Lem opisuje coś, co wygląda jak wczesna wersja smartfona – małe przenośne telewizory, które umożliwiają natychmiastowy dostęp do danych z Biblioteki Trionów. Ponownie ten fragment „Obłoku Magellana” brzmi jak raport z naszych czasów:
Używamy go [odbiornika Biblioteki Trionów] dzisiaj, nie zastanawiając się nawet nad wydajnością i mocą tej wielkiej, niewidzialnej sieci, która obejmuje kulę ziemską. Czy to w australijskim studio, czy w obserwatorium księżycowym, czy na pokładzie samolotu – ile razy każdy z nas sięgnął po swój kieszonkowy odbiornik i wezwał centralną bibliotekę Trion, nazywając pożądaną pracę, która w ciągu sekundy, pojawił się przed Tobą na ekranie telewizora.
Opis wydaje się szokująco dopasowany do współczesności, uwzględnia nawet, wszystkie możliwości oferowane obecnie za pośrednictwem sieci Wi-Fi. Pamiętajmy, że Lem wymyślił wszystkie te idee w czasie, gdy przeciętny komputer zajmował sporych rozmiarów pokój. Projekt pokrycia całego świata siecią zaczął być możliwy do realizacji dopiero pod koniec lat 60., a w pełni użyteczny Internet został uruchomiony dopiero w latach 80 XX wieku.
Druk 3D
„Obłok Magellana” przyniósł również ciekawą wizję przyszłości produkcji towarów, która przywodzi na myśl druk 3D. Co ciekawe, Lem przedstawia logikę procesu, którą stosuje się w praktyce również dzisiaj.
Trion może zawierać zapis „recepty produkcyjnej”. Automat połączony z nim za pomocą fal radiowych wytwarza potrzebny obiekt. W ten sposób można zaspokoić nawet najbardziej wyrafinowane kaprysy fantazji: jak tych, którzy śnią na jawie, którzy pragną mieć starożytne meble lub najbardziej niezwykłe ubrania. Przecież trudno jest wysłać do każdej części świata niewyobrażalną różnorodność dóbr, za którymi tęsknię.
Cóż, drukarki 3D są obecnie dostępne w niektórych sklepach, a „recepta na produkcję” fachowo nazywa się AMF (Additive Manufacturing File).
The Sims
A co powiesz o Lemie jako o twórcy gier? Will Wright, twórca jednej z najbardziej udanych gier wszech czasów- The Sims, wielokrotnie podkreślał, że Lem i jego twórczość stanowią główną inspirację fabuły gry. Książka, której treść bezpośrednio zainspirowała Wrighta, to „Cyberiada”, zbiór opowiadań o przygodach dwóch robotów-wynalazców Trurla i jego przyjaciela Klapaucjusza.
W jednej z tych opowieści Trurl znajduje, na jednej z asteroid, wygnanego ze swojej planety dyktatora. Ofiaruje mu w prezencie, szklane pudełko z miniaturowym, żywym wszechświatem i cywilizacją, którą może rządzić w środku. Zamknięte w pudełku królestwo podobno zainspirowało Willa Wrighta do stworzenia gry, w której każdy gracz może stworzyć swój własny świat.
Oczywiście Lem nie byłby sobą, gdyby nie zanalizował dylematów etycznych, które wiążą się ze sprawowaniem kontroli nad życiem niczego nieświadomych małych ludzi:
„Udowodnij mi, tu i teraz, raz na zawsze, że oni nie czują, że nie myślą, że w żaden sposób nie są świadomi swego zamknięcia między dwiema otchłaniami zapomnienia – otchłani przed narodzinami i otchłani, która następuje po śmierci – udowodnij mi to, Trurl, a ja cię zostawię! Udowodnij, że tylko naśladowałeś cierpienie i nie stworzyłeś go!
Wirtualna rzeczywistość
Dzięki nowym technologiom i urządzeniom wirtualnej rzeczywistości czającym się w każdej reklamie, VR może wydawać się kolejnym gorącym trendem technologicznym. Ale Stanisław Lem pisał o VR (nazywanym przez nieg „fantomatyką”) już w 1964 roku, na długo przed wieloma zachodnimi futurystami, którzy potem podejmowali tę tematykę w swoich pracach.
W swojej „Summa Technologiae” Lem opisuje maszynę, którą nazywa „fantomatem”, zdolną do tworzenia alternatywnych rzeczywistości, które byłyby nie do odróżnienia od „oryginalnej” rzeczywistości.
Co więcej, Lem postrzegał tę technologię jako działającą na wielu poziomach, co oznacza, że osoba opuszczająca jedną wirtualną rzeczywistość niekoniecznie wróciłaby do tej „prawdziwej”. W swojej prozie Lem dopuszczał możliwość przełączania się między różnymi alternatywnymi symulacjami, nie mając pewności, czy jest to „oryginalna” rzeczywistość, czy świat alternatywny. To oczywiście doprowadziłoby do zatarcia granicy między prawdą a fikcją, a Lem najwyraźniej postrzegał to jako potencjalne zagrożenie:
Nagromadzenie iluzorycznych rzeczywistości, może prowadzić do sytuacji, w której prawdziwe życie mogłoby być również traktowane jako wytworzona iluzja.
Matrix lub wspaniała symulacja
W swojej analizie światów fantomowych Lem jest niesamowicie bliski koncepcji doskonałej symulacji, jaką znamy z filmów takich jak „Matrix”.
Własna dystopijna wizja Lema dotycząca wielkiej symulacji pojawiła się w powieści „Kongres futurologiczny” z 1971 roku . Jest to związane z jego koncepcją „cerebromatics”, czyli oddziaływaniem na mózg bezpośrednio przez substancje chemiczne.
Stanisław Lem był wielkim wizjonerem. Roboty, które opowiadają swoje historie są w tym wypadku jedynie wierzchołkiem góry lodowej. Wydają się proste i naturalne, bardziej zaskakuje futurystyczny sprzęt wymyślony przez autora. Czytając książki Lema nie odczuwamy, że zostały napisane pół wieku temu.
Może gdyby genialny pisarz okazał się również genialnym konstruktorem, świat wyglądałby teraz inaczej.
Niektórych wizja przyszłości zaprezentowana przez Lema może przerażać, wszyscy na pewno zgodzą się, że w dziedzinie futurologii Stanisław Lem okazał się geniuszem.
Zaburzenia psychiczne i neurologiczne a virtualna rzeczywistość. Czy VR to obiecująca metoda w terapii niektórych schorzeń? Część I
Według danych Komisji Europejskiej z problemami psychicznymi, na różnych etapach swojego życia, zmaga się 20% światowej populacji. W procesie leczenia zawsze kluczową rolę odgrywa trafnie postawiona diagnoza. Rozwój technologiczny przyniósł poprawę możliwości diagnostycznych niemal we wszystkich gałęziach medycyny. Wydaje się że jedynie psychiatria pozostaje wierna tradycyjnym metodom opracowanym przez Freuda na przełomie XIX i XX stulecia. Niestety wszyscy zdają sobie sprawę, że mogą one zawodzić lekarza. Według statystyk Światowej Organizacji Zdrowia od 35 do 85% chorych nigdy nie zostanie prawidłowo zdiagnozowanych. Wynika to z braku możliwości zdiagnozowania zaburzeń psychicznych za pomocą parametrów fizyko-chemicznych. Żaden laboratoryjny odczynnik nie zmieni koloru i nie powie diagnoście: ,,Ten człowiek ma depresję!” Ten niekorzystny stan rzeczy może zmienić upowszechnienie się wirtualnej rzeczywistości (VR z ang. Virtual Reality).
Badania nad zastosowaniem rzeczywistości wirtualnej w psychiatrii trwają już od wielu lat, prace prowadzone są w kierunku zastosowań diagnostycznych i terapeutycznych. Jako narzędzie diagnostyczne, środowisko VR pozwala wykreować dowolne warunki środowiskowe i związany z nimi zestaw bodźców sensorycznych oddziałujących na wszystkie zmysły. Pacjent, pozostając cały czas bezpieczny w gabinecie lub sali szpitala, może zmierzyć się ze stuprocentowo realistycznym bodźcem, który na co dzień jest przyczyną jego problemów. Lekarz, natomiast może asystować pacjentowi ,,na żywo”, w czasie rzeczywistym, w każdej chwili gotowy służyć pomocą. Rzeczywistość wirtualna zapewnia, wspomnianą we wstępie, obiektywność procedury diagnostycznej funkcji poznawczych pacjenta.
Naukowcy z Uniwersytetu Amsterdamskiego testują wirtualną rzeczywistość jako metodę leczenia zaburzeń lękowych oraz obsesyjno-kompulsywnych. Ataki lęków zwykle wywołuje określona sytuacja, wygenerowanie jej w warunkach kliniki daje lekarzowi możliwość obserwacji ataku. Dzięki temu łatwiej zanalizować występujące objawy. Wywiad lekarski, przeprowadzany w trakcie, lub tuż po zakończeniu symulowanego ataku, również wydaje się być bardziej konstruktywny, od tego wykonywanego długo po ustąpieniu objawów.
Z kolei na Uniwersytecie Cambridge Brytyjskie Towarzystwo im. Alzheimera zaangażowało się w zakrojone na szeroką skalę badania nad wykorzystaniem VR do wczesnej diagnostyki choroby Alzheimera. Pamięć uczestników badania została przetestowana za pomocą zestawu słuchawkowego HTC Vive i wykreowanego środowiska wirtualnego. Ze wstępnych wyników można wysnuć twierdzenie, że nowa metoda badawcza jest dokładniejsza niż analogowe testy poznawcze. Być może VR zostanie wykorzystana w diagnostyce innych chorób psychicznych, takich jak chociażby schizofrenia, zaburzenia lękowe czy ADHD.
Nie bez znaczenia pozostaje argument natury ekonomicznej. Wykorzystanie zestawu do VR generuje znacznie mniejsze koszty niż chociażby tomografu komputerowego czy rezonansu magnetycznego.
Zaburzenia psychiczne i neurologiczne a virtualna rzeczywistość. Czy VR to obiecująca metoda w terapii niektórych schorzeń? Część II
Technologią VR interesuje się również wojsko. Wirtualna rzeczywistość, na razie eksperymentalnie, stosowana jest w leczeniu stresu pourazowego weteranów misji stabilizacyjnych. Ta gałąź wykorzystania wirtualnej rzeczywistości rozwija się szczególnie dobrze na Uniwersytecie Emory’ego w Atlancie. Weteranów przenosi się najpierw do wirtualnej bazy wojskowej w okupowanym kraju, a następnie zestawia się ten obraz z życiem sennego miasteczka. Po wywołaniu serii pozytywnych skojarzeń, zanotowano znaczące zmniejszenie poziomu stresu, zarówno w sferze symptomów mierzalnych metodami obiektywnymi, jaki i subiektywnych odczuć pacjentów.
W sferze zainteresowania medycyny wojskowej pozostaje także wykorzystanie VR w neurologii do leczenia tzw. ,,bólów fantomowych”, czyli wrażenia bólu w kończynie, która została amputowana. Sygnały bólowe, w przypadku tej choroby są błędnie generowane w mózgu chorego. Bodźce wirtualne oddziałują na mózg, niwelując połączenia neuronowe, które kiedyś łączyły korę mózgową, z będącą źródłem bólu, utraconą kończyną.
Badania nad zastosowaniem elementów wirtualnej rzeczywistości w diagnostyce zaburzeń pracy mózgu, prowadzone są także z udziałem funduszy europejskich. Projekt badawczy pn. VRMIND realizowany jest przez hiszpańską firmę Nesplora Technology and Behaviour. Firma stworzyła zestaw diagnostyczno-terapeutyczny składający się z okularów i słuchawek VR, dzięki niemu pacjent może zatopić się w wykreowanym środowisku wirtualnym. Obserwacja poczynań pacjenta umożliwi lekarzom sprawne postawienie diagnozy i wybór optymalnych metod leczenia.
Firma Nesplora opracowała i wprowadziła na rynek hiszpański zestaw narzędzi diagnostyczno-terapeutycznych wykorzystujących rzeczywistość wirtualną. W skład zestawu wchodzą okulary i słuchawki VR. Reakcje pacjenta na generowane przez zestaw bodźce słuchowe i wzrokowe umożliwiają lekarzowi postawienie trafnej diagnozy i wybór optymalnej metody terapii.
VR i medycyna kiedyś na pewno stworzą zgrany duet. Obecnie jesteśmy na etapie testów i prototypów. Według badań w wirtualnej rzeczywistości drzemie ogromny potencjał. Według danych firmy badawczej Grand View Research szacowany roczny współczynnik wzrostu dla tego rynku wynosi 29,1%. Tym samym w 2025 roku wartość rynku VR w branży medycznej USA ma przekroczyć 5 mld dolarów. Przedstawiciele firmy Nesplora zwracają jednak uwagę, że część lekarzy nieufnie podchodzi do stosowania w terapii rzeczywistości wirtualnej. Po części wynika to z braku wiedzy o nowej technologii i obaw związanych z trudnymi do przewidzenia skutkami ubocznymi. Czas pokaże w jakim kierunku pójdzie rozwój tej technologii a co za tym idzie jakie zastosowania znajdzie dla niej medycyna w XXI i XXII wieku. Już niedługo wszyscy będziemy się mogli o tym przekonać.
System CRM, Część I
Skrótowiec CRM w najprościej można rozwinąć jako ,,systemy i procesy służące do zarządzania relacjami firmy z obecnymi i potencjalnymi klientami”. Kiedy mówimy ,,CRM”, zwykle chodzi nam o oprogramowanie CRM. Służy ono do organizowania, automatyzacji i synchronizacji sprzedaży, marketingu oraz obsługi klienta.
Koncepcja CRM rozwijała się, aby uwzględnić wszystkie obszary obsługi klienta oraz zapewnić sobie jego lojalność i przychody dla firmy. Jest to proces identyfikacji potencjalnych klientów, pielęgnowania ich potrzeb oraz prowadzenia przez proces sprzedaży. Kiedy już uda się pozyskać nowych klientów, utrzymuje się ten związek i zachęca do powtarzania działań przynoszących zysk naszej firmie – częstszych zamówień, lub zwiększenia wartości pojedynczej transakcji.
Jak działa CRM?
Tworzenie każdej firmy zaczyna się od fundamentów zbudowanych na dobrych relacjach z klientami. Sprzedawca kontaktuje się z ludźmi, którzy potrzebują jego produktu. Wraz z rozwojem firmy te połączenia biznesowe stają się coraz bardziej skomplikowane. Nie jest to już tylko transakcja między kupującym a sprzedającym. Zaczyna się zarządzanie siecią niezliczonych połączeń z partnerami biznesowymi. Koniecznym staje się wzajemna wymiana informacji, pomiędzy różnymi zespołami działającymi we własnej organizacji, które kontaktują się z tymi samymi klientami. System CRM może służyć jako ważne centrum decyzyjne do zarządzania wieloma połączeniami w strukturze rozwijającego się przedsiębiorstwa. System ułatwi przełożenie wiele strumieni danych pochodzących z monitorowania sprzedaży, klientów, usług, marketingu i mediów społecznościowych na praktyczne informacje biznesowe.
CRM daje wszystkim pracownikom dostęp do informacji na temat sprzedaży, obsługi klienta, marketingu oraz rozwoju biznesu. Dzięki niemu firma otrzymuje lepszy sposób zarządzania relacjami z klientami i interakcjami, które napędzają sukces gospodarczy. Przejrzystość i łatwy dostęp do danych klientów, takich jak dane kontaktowe, możliwości sprzedażowe, problemy z usługami i kampanie marketingowe, to cechy charakterystyczne systemu CRM. Dzięki łatwemu w użyciu, konfigurowalnemu pulpitowi, firma jest w stanie zobaczyć pełny widok profilu klienta w jednym miejscu.
System CRM, Część II
CRM a ERP
Planowanie zasobów przedsiębiorstwa (ERP) i zarządzanie relacjami z klientami (CRM) są w wielu aspektach do siebie podobne, ponieważ oba systemy są wykorzystywane do zwiększenia ogólnej rentowności firmy.
Niektóre funkcje systemów CRM i ERP pokrywają się i dlatego oba systemy mogą być ze sobą całkowicie zintegrowane; ponieważ jednak ich podstawowe funkcje są całkowicie różne, najlepszym rozwiązaniem dla każdej firmy jest traktowanie ich jako dwóch oddzielnych, samodzielnych systemów. Patrząc osobno, łatwiej jest zaobserwować, w jaki sposób ERP i CRM pomagają w poprawie wydajności i zwiększaniu sprzedaży.
Różnica?
Systemy ERP i CRM wykorzystują różne podejścia do procesu zwiększenia rentowności. ERP koncentruje się na redukcji kosztów ogólnych. Usprawniając procesy biznesowe, system ERP zmniejsza nakłady kapitałowe. CRM działa w celu zwiększenia zysków poprzez zwiększenie wolumenu sprzedaży.
Niech stanie się światłość!
Doba- 24 godziny, dzień i noc, podstawowa i naturalna jednostka czasu używana od zawsze przez ludzi na całym świecie. Rytm dobowy wyznacza naprzemienny cykl jasności i ciemności i aż do rewolucji przemysłowej i związanej z nią elektryfikacji był to naturalny cykl życia człowieka. Wszystko zmieniło się wraz z wynalezieniem sztucznego światła elektrycznego. Wynalazek ten zmienił życie robotników i fabrykantów, pchnął rozwój na nowe tory i stał się jego siłą napędową.
Dzięki żarówkom Edisona, fabryki nie musiały w nocy przerywać produkcji, wydajność rosła, oświetlenie elektryczne umożliwiło pracę nocnej zmiany. Jak każdy wynalazek elektryczność otworzyła nowe możliwości i stała się źródłem zagrożeń. Po wielu latach naukowcy zaczęli badać rytm dobowy człowieka.
Co kryje się za pojęciem rytmu dobowego? Jak podaje Encyklopedia PWN ,,rytmy biologiczne, biorytmy, (a do nich zalicza się także rytm dobowy) to cykliczne nasilanie się i zmniejszanie procesów życiowych organizmów, będące wyrazem ich przystosowania do zdarzeń w środowisku.” Rytm dobowy jest dowodem na istnienie wewnętrznego zegara biologicznego. Zegar biologiczny to zespół procesów fizjologicznych, głównie biochemicznych, pozwalający na dostosowanie aktywności organizmu do pory dnia lub nocy.
O istnieniu takich mechanizmów wiedziano od dawna, jednak dopiero w XXI w. postanowiono dokładnie je zbadać. Żmudną drogę badawczą rozpoczęto od badania owadów. W 2017 r. trzech amerykańskich genetyków specjalizujących się w chronobiologii Jeffrey C. Hall, Michael W. Young i Michael M. Rosbash, otrzymało Nagrodę Nobla w dziedzinie medycyny i fizjologii za odkrycie mechanizmów molekularnych kontrolujących rytm okołodobowy u muszek owocowych. Podczas badań wyodrębniono trzy główne cechy rytmu okołodobowego człowieka:
- Rytm ma endogenny okres swobodnego działania, który trwa około 24 godzin.
- Rytm można zresetować poprzez wystawienie na działanie bodźców zewnętrznych (takich jak światło i ciepło).
- Rytmy wykazują kompensację temperatury. Innymi słowy, utrzymują one okresowość okołodobową w zakresie temperatur fizjologicznych.
Udowodniono również, że cykliczność okołodobowa przejawia się w regularności pór snu oraz posiłków, nie tylko u ludzi ale także u zwierząt. Stałe wahania okołodobowe zaobserwowano również w temperaturze ciała, aktywności fal mózgowych, produkcji hormonów oraz tempie regeneracji komórek.
W XXI w. naturalny rytm dobowy zaczął przegrywać z rytmem społecznym. Pory naszej aktywności stały się nieregularne. Przedstawiciele wielu zawodów pracują w dzień i w nocy, w nocy toczy się życie towarzyskie, pokonywanie długich tras zmusza kierujących do nocnych podróży. Coraz częściej przemieszczamy się między kontynentami, a szybka zmiana wielu stref czasowych skutkuje nieprzyjemnym jet lagiem. Noc już dawno przestała być wyłącznie krainą snu. Tak szybkie zmiany nie wychodzą nam na zdrowie. Zaburzenia rytmu okołodobowego to poważny problem.
Lekarze wyróżniają cztery główne rodzaje zaburzeń rytmu okołodobowego: zespół opóźnionej fazy snu, zespół przyspieszonej fazy snu, rytm wolnobiegnący i nieregularny rytm okołodobowy.
Zespół przyspieszonej fazy snu występuje najczęściej wśród seniorów. Zaburzenie to powoduje przesunięcie preferowanej pory snu w okolice między 21:00 a 4:00 nad ranem, co zwykle jest uciążliwe dla pozostałych domowników. W tym wypadku farmakoterapia jest szczególnie odradzana, ze względu na to, że stosowane leki sedatywne (zwłaszcza pochodne benzodiazepiny) powodują u osób w podeszłym wieku pogorszenie procesów poznawczych i znacznie zwiększają ryzyko upadków. Zaburzeniom snu u osób starszych należy przeciwdziałać w inny sposób. Warto tak zaplanować dzień aby senior wieczorem jak najdłużej przebywał z innymi domownikami i miło spędzał czas. Pożądana jest również ekspozycja na światło w godzinach wieczornych.
Rytm wolnobiegnący to rzadziej występujące zaburzenie. Borykają się z nim głównie osoby niewidome, a także osoby wyalienowane ze społeczeństwa np. przebywający na kwarantannie, więźniowie, osoby samotne czy obłożnie chore. W omawianym przypadku chorzy zasypiają, a w konsekwencji również budzą się, później niż większość z nas, ale zgodnie z indywidualnym rytmem okołodobowym, dłuższym niż 24 godziny. Zmiana rytmu okołodobowego wymaga wzmocnienia ekspozycji na wyznaczniki czasu.
Osoby odczuwające niedogodności związane z nieregularnym trybem życia, muszą pamiętać o kluczowej roli światła w regulacji zegara biologicznego. Osobom z opóźnioną fazą snu polecane są naświetlania lampami rano, po przebudzeniu. Poranne naświetlania przyspieszają rytm okołodobowy i pomagają wejść w codzienne obowiązki. Czytelnicy, którzy borykają się z przyspieszoną fazą snu powinni stosować naświetlania wieczorem, aby zniwelować zmęczenie i nieco opóźnić zasypianie, dzięki temu sen nie zmorzy ich wczesnym wieczorem i zniknie problem nocnych wybudzeń.
Nie wszyscy wiedzą, że kolor światła również oddziałuje na układ nerwowy. Najbardziej niekorzystne jest ostre, niebieskawe światło emitowane przez ekrany LCD. Oglądanie telewizji i korzystanie z komputera późnym wieczorem może być przyczyną bezsenności. Seniorzy, oglądając telewizję podczas bezsennych nocy, wpadają w swoistą ,,pętlę bezsenności”. Wybierając źródło światła, z którego będziemy korzystać bezpośrednio przed snem warto wybrać urządzenie o odpowiednim kolorze i natężeniu światła. Wybraną lampę należy ustawić tak aby oświetlała nas ,,zza głowy”. Dla uzyskania odpowiednich efektów terapeutycznych zalecane jest światło zbliżone do światła dziennego o natężeniu 10.000 luksów.
W zespole opóźnionej fazy snu półgodzinne seanse fototerapii najlepiej jest przeprowadzać rano, tuż po przebudzeniu. Fototerapię można wspomagać melatoniną w dawce 2-5 mg, podawaną na około 5 godzin przed snem. W zespole przyspieszonej fazy snu fototerapię najlepiej jest stosować między godziną 20. a 22. w dawce 2000 lx, lub między godziną 20. a 21. w dawce 5000 lx.
Zmiana nawyków i łagodna fototerapia to dość długotrwały proces. Pierwszych efektów można spodziewać się po 6 a nawet 8 tygodniach. Można ją podjąć samodzielnie, bez konsultacji z lekarzem, ale tylko jeśli nie mamy żadnych chorób współistniejących. Zaburzenia snu u osób chorych przewlekle mogą świadczyć o nasileniu się choroby podstawowej i wymagają konsultacji z lekarzem prowadzącym.
Gorączka cyfrowego złota, Część I
Kryptowaluty do niedawna były postrzegane jako dość tajemnicze aktywa dla garstki wtajemniczonych. Czym jest to tajemnicze krypto? Najogólniej mówiąc jest to wspólne określenie wielu różnych walut wirtualnych. Prawdopodobnie rozwój Metawersum pociągnie za sobą popularyzację kryptowalut jako uniwersalnych, środków płatniczych w metaświecie. Z naszych poprzednich tekstów znacie już koncepcję funkcjonowania Metawersum, czas zapoznać się z technologią, która w przyszłości stanie się jego finansowym kręgosłupem.
Waluty wszystkich krajów świata są ściśle scentralizowane. Istnieje jedna centralna mennica zarządzana przez bank centralny. Małym wyjątkiem jest tu Mennica Stanów Zjednoczonych, która ze względu na powierzchnię kraju utrzymuje aż pięć oddziałów. W odróżnieniu od walut konwencjonalnych kryptowaluty są ,,wydobywane” w systemie rozproszonym przez miliony ,,górników”- uczestników ogromnych sieci peer to peer. Górnicy to węzłowe komputery sieci. Oprogramowanie tych komputerów grupuje dane w bloki- blockchainy. Każdy blok chroniony jest hasłem- ,,hashem”. Jeśli ,,górnik” złamie hash to do sieci przyłączany jest kolejny blockchain, a ,,górnik” otrzymuje nagrodę w postaci losowej kwoty wyrażonej w kryptowalucie. Szybkość odkrycia poprawnego hasha jest uzależniona od wykorzystanej mocy obliczeniowej, więc większe szanse daje mocniejszy komputer. Zestawy komputerowe składane specjalnie z myślą o wydobywaniu kryptowalut popularnie nazywane są koparkami.
Koparka kryptowaluty wykorzystuje swoją moc obliczeniową do odkrycia poprawnego hasha, aby to zrobić należy rozwiązać skomplikowane równanie matematyczne. Technicznie rzecz biorąc wydobywanie kryptowaluty to potwierdzanie wykonania obliczeń w rozbudowanej, niejednorodnej bazie danych. Górnik otrzymuje kryptomonety w nagrodę za poprawne obliczenie równania. Równania są przydzielane konkretnym górnikom na podstawie algorytmu, który pod uwagę bierze wiele czynników, takich jak ilość posiadanych bitcoinów czy efektywności koparki. Najważniejszym podzespołem koparki kryptowaluty jest karta graficzna, a właściwie kilkanaście połączonych ze sobą kart graficznych. Procesory graficzne zapewniają wysoką wydajność przy relatywnie niskim poborze energii elektrycznej. Kolejnym ważnym elementem koparki jest wydajny zasilacz. Pozostałe podzespoły schodzą na drugi plan, przy ich doborze należy kierować się niskim apetytem na energię elektryczną. Koparki montuje się w otwartych obudowach, które zapewniają optymalne chłodzenie poszczególnych komponentów. Chłodzenie koparki ma kluczowe znaczenie dla jej żywotności, ponieważ poszczególne elementy nagrzewają się podczas pracy. Na tak zbudowanej koparce można już zainstalować odpowiedni program, który wydobędzie moc procesora graficznego. Oprócz silnego procesora graficznego ważne są odpowiednie ustawienia biosu. Manipulując ustawieniami możemy uzyskać korzystny stosunek mocy obliczeniowej do zużywanej energii, jest to kluczowy parametr określający wydajność zestawu. Oczywiście jak w przypadku każdego instrumentu finansowego opłacalność wydobycia kryptowaluty zależy od jej aktualnego kursu w stosunku do walut klasycznych.
Zamiast komputera stacjonarnego do kopania kryptowalut można użyć gamingowego laptopa. Kolejnym rodzajem są sprzętowe koparki peryferyjne podłączane do portów USB. Ten sprzęt ma jednak niską efektywność, nie pozwoli na osiąganie wymiernych zysków. Koparki USB to sposób na rozpoczęcie przygody z górnictwem, tak samo należy traktować aplikacje mobilne dostępne na Androida.
Możemy wyróżnić trzy podstawowe rodzaje ,,pecetowych” koparek: GPU, ASIC i FPGA. Koparka GPU wykorzystuje przede wszystkim moc obliczeniową zespołu procesorów graficznych. Zasadniczym elementem tego rodzaju koparki jest zestaw, połączonych ze sobą, wydajnych kart graficznych. Łączenie kart graficznych zwiększa ich wydajność, czyli hash rate. Zaletą koparek GPU jest ich programowalność- ich posiadacze mogą zmieniać wydobywane waluty w zależności od koniunktury na rynku. Koparki GPU wykorzystują gamingowe karty graficzne, zestawy składane są zwykle samodzielnie przez górników. Do zastosowań profesjonalnych polecane są znacznie wydajniejsze, wyspecjalizowane układy scalone – ASIC (ang. application-specific integrated circuit). W przeciwieństwie do koparek GPU są to gotowe zestawy budowane specjalnie do tej czynności. Koparki ASIC są znacznie mniejsze i cichsze od koparek GPU, dzięki temu na małej powierzchni można zmieścić więcej urządzeń. Koparki ASIC w przeciwieństwie do maszyn GPU nie są programowalne, raz ustalonej waluty nie da się zmienić. Ostatnim rodzajem koparek są programowalne macierze bramek- FPGA (ang. field-programmable gate array). Te koparki mają bardzo dużo zalet, należy wymienić możliwość programowania różnych walut, małe gabaryty, cichą pracę. Wydajność tych koparek plasuje się na drugim miejscu. Są wydajniejsze od koparek GPU, ale słabsze od urządzeń ASIC. Analizując ich wydajność należy wziąć pod uwagę, relatywnie niskie zużycie prądu.
Gorączka cyfrowego złota, Część II
Polecanym modelem typu ASIC jest np. AMD Radeon RX Vega 56. Produkt AMD w zasadzie zdominował profesjonalny rynek kryptograficzny, jego atutami są duża szybkość procesora (1,156MHz) oraz 8 GB pamięci. Jedyną wadą tego modelu jest wysoka energochłonność, dlatego polecany jest osobom mającym dostęp do taniej energii elektrycznej. Początkującym górnikom poleca się tańsze modele AMD Radeon RX580 lub RX480, które niską cenę łączą z niewielką energochłonnością. Są one bardzo popularne, ale też trudno dostępne z uwagi na wysoki popyt.
Kolejnym możliwym rozwiązaniem są karty graficzne oznaczane skrótem CMP (Cryptocurrency Mining Processor). Lepiej nie kupować ich z myślą o grach. Gracz, który zaopatrzy się w tak oznaczony sprzęt bardzo się zdziwi, ponieważ tego typu karty nie są wyposażone w wyjścia wideo. Karty CMP mają fabrycznie podkręcone ustawienia zegarów i napięć, przekłada się to na wyższą efektywność energetyczną, a tym samym wyższe zyski. Wybierając to rozwiązanie warto pamiętać o dodatkowym chłodzeniu, ponieważ rozwiązania fabryczne są na ogół niewystarczające.
Na początkowym etapie rozwoju rynku kryptowalutowego koparką mógł zostać każdy domowy komputer. Dzisiaj nie jest to już takie proste. Rynek jest bardzo wymagający, aby osiągać zyski konieczny jest zakup wyspecjalizowanego zestawu złożonego z kilkunastu kart graficznych i wielordzeniowego procesora. Całość łączy karta PCIE, która pozwala wykorzystać moc procesora graficznego. Tak zbudowany zestaw wykonuje skomplikowane obliczenia matematyczne, a za prawidłowe wyniki nagradzany jest kryptowalutą.
Jeśli decydujemy się na koparkę GPU to obecnie modelem godnym polecenia jest NVIDIA GeForce RTX 3090. Po dobraniu optymalnych parametrów hashrate koparki opartej o tę kartę wynosi 130 MH/s. Zestaw może pochwalić się mocą 300 W, inwestując w ETH możemy liczyć na miesięczny zysk w wysokości 270$.
Aby koparka przynosiła zyski musi działać bez przerw, 24 godziny przez 7 dni w tygodniu. Podzespoły bardzo szybko się zużywają ponieważ przez długi czas poddawane są maksymalnemu obciążeniu. Sposobem na wydłużenie żywotności sprzętu jest optymalizacja parametrów, w szczególności obniżenie napięcia zasilania. Oprócz wydajnych podzespołów koparka musi zostać wyposażona w software, stworzony przez twórców kryptowaluty. Dedykowany software pełni również funkcję elektronicznego portfela, w którym przechowujemy zdobyte środki.
Podobnie jak w przypadku każdego komputera, kupując koparkę możemy zdecydować się na dwa warianty: zestaw lub ,,składak”. ,,Składak” jest propozycją ekonomiczną, zestawy zaś są przygotowane przez ekspertów. Samodzielny dobór podzespołów jest trudny i polecany, osobom mającym doświadczenie w dziedzinie elektroniki, początkujący powinni zdecydować się na gotowe zestawy. Koszt najprostszego zestawu zaczyna się od trzech tysięcy złotych. Najmocniejsze maszyny mogą kosztować nawet 50 tysięcy złotych, wtedy w pakiecie otrzymujemy również usługę montażu.
Jak bardzo opłacalne jest korzystanie z koparki kryptowaluty? Jak zawsze w przypadku instrumentów finansowych nie da się jednoznacznie odpowiedzieć na tak postawione pytanie. Pierwszą zmienną, którą musimy wziąć pod uwagę jest aktualny kurs danego waloru. Drugim elementem jest moc koparki, a tym samym zużycie prądu. Wydobycie kryptowalut polecane jest szczególnie w czasie hossy na rynku. Samodzielnie kopanie ,,mainstreamowych” kryptowalut, takich jak Bitcoin, Ether i Litecoin nie jest już opłacalne. Koszty energii elektrycznej mogą zrównoważyć, a nawet przekroczyć przychody. Należy pamiętać, że do wyścigu o złamanie hasha startujemy sami przeciwko wyspecjalizowanym zespołom górników z całego świata. Musimy wziąć to pod uwagę, ponieważ kryptowalutę otrzyma tylko ten górnik, który pierwszy złamie hash. Pojedynczy użytkownik ma małe szanse w starciu z kopalnią. Kolejnym ,,górniczym problemem” jest halving. Halving to ,,kryptoinflacja”, polega ona na tym, że wraz z rozwojem kryptowaluty zmniejsza się nagroda za rozwiązanie hasha.
Gorączka cyfrowego złota, Część III
Przyjrzyjmy się kosztom generowanym przez dość popularny model Antminer S19. Koparka może pochwalić się mocą 3215 W. Jeśli założymy całodobową pracę tego urządzenia to dzienny koszt energii elektrycznej wyniesie 48,61 zł. Przy wysokiej inflacji można założyć, że koszty wzrosną do nawet 70 zł dziennie.
W tej chwili w warunkach domowych można kopać mniej popularne waluty, na razie nie możemy liczyć na krociowe zyski. Wybierając tę opcję musimy uzbroić się w cierpliwość i czekać aż cena naszych walorów wzrośnie. Przykładem takiego nagłego wzrostu waluty uznawanej za niszową jest Dogecoin. W ciągu pięciu miesięcy jego cena poszybowała z jednego centa do 2,38$! Wydobywając nową, mniej popularną walutę mamy większe szanse na sukces.
Jeśli nie chcemy inwestować w niepewne walory możemy przystąpić do tzw. mining pool- puli wydobywczej. Pula to zrzeszenie górników łączące moc obliczeniową poszczególnych koparek. Podobnie jak w klasycznej spółdzielni zysk dzielony jest pomiędzy członków proporcjonalnie do wniesionej mocy obliczeniowej. Aby przystąpić do puli niezbędna jest aplikacja typu MinerGate.
Metody wydobywcze można ogólnie podzielić na dwie kategorie: proof of work i proof of stake, czyli dowód pracy i dowód stawki. W systemie dowodu pracy nagroda uzależniona jest od mocy obliczeniowej użytej do złamania hasha (im większa moc tym wyższa nagroda). W systemie dowodu stawki niezbędne jest posiadanie minimalnego kapitału kryptowaluty przechowywanego w wirtualnym portfelu. Z tego portfela nie można pobierać środków. Górnik otrzymuje nagrodę na podstawie zamrożonego w portfelu kapitału. O tym kto otrzyma nagrodę decyduje losowanie. Na wynik losowania wpływa wiek kapitału- im kapitał jest starszy tym większa szansa na wylosowanie zysku. Minimalny okres zamrożenia kapitału wynosi 30 dni.
Po rozważaniach teoretycznych czas na porady praktyczne. Na rynku dostępnych jest wiele rozwiązań dedykowanych cyfrowym górnikom. Przyjrzyjmy się najciekawszym z nich. Jeśli decydujemy się na wydobycie bitcoina, polecamy koparkę Antminer S19 Pro. Jej cena wprawdzie oscyluje wokół 50 tys. zł, ale zapewnia wydajność na poziomie 110 TH/s. Przekłada się to na wydajność wydobycia na poziomie 0.02266 BTC miesięcznie, co w skali roku daje nam 0.2757 BTC. Łatwo obliczyć, że (przy zachowaniu obecnego kursu bitcoina) po 4 latach jesteśmy stanie wypracować ponad milion złotych zysku.
Kolejnym ciekawym rozwiązaniem jest tzw. składak złożony z sześciu kart GTX 1660 Ti. Koparka została wyposażona w wydajny i trwały system chłodzenia typu DUAL. Jest to bardzo wydajne rozwiązanie, efektywność wynosi 180 MH/s, a zużycie prądu nie przekracza 520 W. Aluminiowy stelaż pozwala na uporządkowanie okablowania i utrzymanie optymalnej cyrkulacji powietrza.Stabilną pracę zapewnia również użycie markowych komponentów: płyta główna to Asus, pamięć z radiatorem oraz dwa zasilacze z certyfikatem GOLD o mocy 650W. Użycie dwóch zasilaczy zapewnia równomierne rozłożenie obciążenia sieciowego, niższe temperatury pracy oraz mniejsze nagrzewanie się kabli.
Jeśli myślimy o profesjonalnym górnictwie, które zapewni nam stałe źródło utrzymania musimy zainwestować w najnowocześniejsze rozwiązania dostępne obecnie na rynku. Model Antminer S19 Pro+ Hyd jest najwydajniejszą tego typu konstrukcją. Ponadto jest to pierwszy model koparki kryptowalut, który może pochwalić się chłodzeniem wodnym. Omawiany model jest ulepszoną wersją koparki, którą przybliżałem wcześniej. Wersja Pro+ charakteryzuje się osiągami o 80% lepszymi od modelu Antminer S19 Pro. Pobór mocy oszacowano na 5445 W, co przekłada się na efektywność na poziomie 27,5 J/TH (zwykły model S19 Pro wypada tutaj trochę gorzej, bo oferuje 29,5 J/TH).
Koparki typu ASIC najlepiej jest sprowadzać z Chin. Wiodący producenci to firmy Bitmain oraz Avalon. Koparki GPU obecnie nie są polecane do wydobywania klasycznego bitcoina, mogą się jednak dobrze sprawdzić przy wydobyciu mniej popularnych walut nazywanych altcoinami, np. Ethereum, Ethereum Classic, Pascal, Electroneum czy Monero. Wybierając kartę graficzną do koparki GPU należy rozważy wybór produktu Nvidii lub AMD.
Kryptowaluty na początku dotknęła ,,cyfrowa gorączka złota”. Każdy górnik mógł szybko się wzbogacić korzystając nawet z domowego sprzętu komputerowego. Te czasy niestety bezpowrotnie minęły. Przygodę z górnictwem można oczywiście zacząć od apki w smartfonie, ale to tak jakby próbować ściąć drzewo scyzorykiem. Można, pytanie tylko po co? Jeśli chcemy na poważnie wejść na rynek niezbędny jest profesjonalny sprzęt. Początkujący powinni rozważyć wydobycie jednego z altcoinów. Gdy już zdobędziemy doświadczenie musimy zaopatrzyć się w profesjonalną koparkę i możemy zacząć wydobywać króla kryptowalut- bitcoina.