
Zanim cokolwiek napiszę, zawsze przeprowadzam badania źródłowe tematu — dawniej robiłem to przy pomocy bibliotek i encyklopedii, potem guglowania, a dziś tym wszystkim plus AI. To jest niezbędne, by cokolwiek sensownego napisać. Mnie beletrystyka i fikcja nie interesuje, ja piszę tylko o kwestiach, które wypływają z badań naukowych, a te trzeba jakoś znaleźć, poznać, przetworzyć i zrozumieć — AI bardzo ułatwia i przyspiesza ten proces. Jednak trzeba umieć z niej skorzystać.
Niżej jest historia, z której wniosek jest prosty, choć wielu woli go nie widzieć: promptowanie to nie zabawka — to kompetencja! Czasem — dosłownie — ratująca zdrowie.
W 2025 roku opisano przypadek mężczyzny, który chciał poprawić swoje zdrowie, unikając chlorku sodu. Zapytał więc model językowy o substytut soli. LLM, rozumując na poziomie chemicznej analogii, wspomniał, iż w pewnych zastosowaniach technicznych bromek sodu przypomina chlorek sodu. Człowiek zinterpretował to jako zielone światło do jedzenia tej substancji. Przez trzy miesiące „solił” bromkiem wszystkie posiłki.
Efekt? Klasyczny bromizm: paranoja, omamy słuchowe, halucynacje, urojenia prześladowcze, wysypka, zaburzenia elektrolitowe, ujemna luka anionowa i dramatyczna hiperchloremia (fałszywa — bo aparatura nie odróżnia bromku od chlorku). Zamiast poprawy zdrowia był SOR, oddział psychiatryczny i długie leczenie intensywnymi wlewami NaCl, które stopniowo wypierało bromek z organizmu.
To nie była wina AI w sensie ogólnym. To była wina złego pytania, złej interpretacji i nieumiejętnego obchodzenia się z narzędziem, które w rękach osoby niezrównoważonej staje się wzmacniaczem obsesji.
LLM-y nie są niebezpieczne same w sobie. Niebezpieczny jest użytkownik, który nie wie, jak o coś pytać i jak interpretować odpowiedzi. W informatyce jest dobrze znane powiedzenie "Garbage in, garbage out" (śmieci wchodzą, śmieci wychodzą), które można zastosować w każdej dziedzinie życia, też do użycia LLMów.
Dlatego:
- ➡️ kto nie uczy się promptowania,
- ➡️ kto nie wyrabia w sobie intuicji kontekstowej,
- ➡️ kto nie rozumie różnicy między odpowiedzią techniczną a praktyczną,
- ➡️ kto nie rozpoznaje halucynacji modelu,
- ➡️ kto traktuje AI jak wyrocznię zamiast jako narzędzie,
ten prędzej czy później wejdzie w podobną pułapkę.
Nie dlatego, iż AI jest „zła”, tylko dlatego, iż świat — także cyfrowy — nie wybacza naiwności. Rozwiązaniem nie jest unikanie LLM-ów. Rozwiązaniem jest nauczenie się, jak z nimi rozmawiać.
Grzegorz GPS Świderski
]]>https://t.me/KanalBlogeraGPS]]>
]]>https://Twitter.com/gps65]]>
]]>https://www.youtube.com/@GPSiPrzyjaciele]]>
