„Nic to, byle nie myśleć” uporczywie powtarzał w bajce Stanisława Lema elektrycerz Kwarcowy. Stawianie na bezmyślność było w jego sytuacji uzasadnione, bowiem w trakcie myślenia elektrycerzowy mózg wydzielał ciepło, a że rzecz działa się w krainie lodowej, elektrycerz obawiał się, że może go pochłonąć stopiony na skutek myślenia lodowiec. Ironiczną dewizę z bajki o elektrycerzu należy wpisać Lemowi do rejestru udanych proroctw dotyczących rozwoju informatyki – największe wzięcie mają te programy, których sprzedaż podparta jest obietnicą, iż są one tak mądre, że nie trzeba nic wiedzieć, by ich używać. Jakoś mało kto wierzy, że można zostać kompozytorem muzyki (na przykład poważnej) w jeden weekend, ale jeśli chodzi o tworzenie grafiki komputerowej, to dla niektórych i jeden weekend to stanowczo za długo.
Najczęściej wysuwanym argumentem na rzecz tezy, że komputer musi dać się bezmyślnie używać, jest porównywanie obsługi komputera z obsługą urządzenia w rodzaju pralki automatycznej lub telewizora. Gdyby porównanie było zasadne, argument byłby nie do odparcia.
Komputer jest wprawdzie narzędziem, ale narzędziem o tak szerokim wachlarzu zastosowań, jak żadne inne. I chociaż systemy komunikacji wizualnej, udostępniające użytkownikom skończone zestawy możliwych operacji, są krokiem w kierunku sprowadzenia komputera do roli wąsko specjalizowanego urządzenia, takiego jak pralka czy telewizor, to jednak komputery na razie dzielnie się bronią przed degrengoladą, swą uniwersalnością zmuszając producentów do wyposażania programów w „zaawansowane możliwości”. Przykładem mogą tu być języki makr arkuszy kalkulacyjnych czy edytorów tekstu. A przecież makra to nic innego jak powrót do programowania, które jako wymagające myślenia miało zostać wyegzorcyzmowane przez systemy myszoidalne.
Ale nawet gdyby machnąć ręką na programowanie, to i tak architektura współczesnych komputerów nie pozwala nie wiedzieć o tym, jak działa komputer. Od pół wieku zasada budowy nie uległa zmianie: komputer składa się z procesora, pamięci, z której procesor odczytuje i do której zapisuje ciągi zer i jedynek, oraz urządzeń zewnętrznych, z którymi procesor komunikuje się za pomocą przerwań. Programy nie są w stanie ukryć tej struktury przed użytkownikiem i dlatego aby sprawnie korzystać z komputera, należy rozumieć, co się w jego wnętrzu dzieje.
Weźmy na przykład grafikę komputerową – trzeba wiedzieć, że dane graficzne mogą być reprezentowane na dwa sposoby: bądź jako mapa bitowa, bądź jako zbiór obwiedni. Niezdawanie sobie z tego sprawy wróży kłopoty.
Oto sytuacja z życia wzięta: znajomy plastyk miał zaprojektować dla pewnego wydawnictwa okładkę książki, zawierającą kilka miniaturek innych okładek tegoż wydawnictwa. Sprawa zdała mu się banalna, gdyż owe okładki były zaprojektowane komputerowo. Pobrał więc pliki z projektami okładek, rozmieścił miniaturki na stronie z artystycznym wdziękiem i wszystko byłoby dobrze, gdyby nie to, że świetny skądinąd program graficzny działał potwornie wolno, a do tego co jakiś czas zgłaszał brak zasobów. Znajomy plastyk był nieprzyjemnie zdziwiony. Tymczasem wyjaśnienie jest proste: okładki były przygotowane jako kolorowe mapy bitowe, mające po około 30 megabajtów każda. Przy dziesięciu okładkach daje to w sumie 300 megabajtów – wystarczająco dużo, żeby przytkać nawet niezłej klasy komputer.
Wiara w możliwość bezmyślnego używania komputerów jest zaskakująco powszechna – można rzec, iż wielkie pytanie informatyki „czy komputer może myśleć?” zostało zastąpione pytaniem „czy użytkownik może nie myśleć?”. Czy w przyszłości, na skutek rozwoju software'u i wzrostu możliwości hardware'u, wiara ta ma szansę się ziścić? Pozwolę sobie wdepnąć na uświęcone tradycją poletko Stanisława Lema i zabawić się w prognozowanie: nie liczyłbym na to, że kiedykolwiek rozumne programy będą w stanie skompensować nierozumne poczynania użytkowników.