Poznaj odpowiedzi ekspertów:

Chcesz wiedzieć, jaki jest skład powietrza, którym oddychasz? Chciałbyś poznać skład gleby, w której hodujesz warzywa? Zastanawiasz się, jak poprawić jakość życia Twoich dzieci? Rozmyślasz, jak włączyć się w badania naukowe związane z eksploracją kosmosu? Może chcesz dowiedzieć się czegoś o naukowych podstawach planowania przestrzeni miejskiej? W Konsorcjum Akademickim – Katowice Miasto Nauki pracuje blisko 10 tysięcy osób gotowych, by służyć wiedzą ekspercką i udzielić odpowiedzi na powyższe pytania i wiele innych! Wszystko w ramach akcji „Zapytaj naukowca” , która daje możliwość zadawania nurtujących pytań i poszukiwania odpowiedzi na naukowe problemy wspólnie z ekspertami i naukowcami z różnych dyscyplin.

Do udzielania odpowiedzi zaprosiliśmy naukowców z siedmiu uczelni publicznych tworzących Konsorcjum Akademickie – Katowice Miasto Nauki, w skład którego wchodzą:

  • Akademia Muzyczna im. Karola Szymanowskiego w Katowicach,
  • Akademia Sztuk Pięknych w Katowicach,
  • Akademia Wychowania Fizycznego im. Jerzego Kukuczki w Katowicach,
  • Uniwersytet Ekonomiczny w Katowicach,
  • Politechnika Śląska w Gliwicach,
  • Śląski Uniwersytet Medyczny oraz Uniwersytet Śląski w Katowicach.

Wierzymy, że Miasto Nauki to miejsce, w którym problemy identyfikuje się i rozwiązuje z wykorzystaniem metody naukowej, dlatego niezależnie od wieku, zainteresowań czy miejsca zamieszkania zachęcamy do zadawania pytań i poszukiwania odpowiedzi!

Plamy tego typu rzadko są objawem obecności bakterii. Ewentualnie mogą być śladem po nich, ale pranie nawet w niskiej temperaturze powinno zniszczyć większość bakterii (mechanicznie, chemicznie lub termicznie). Plamy z barwnej żywności (soków, kolorowych owoców czy wina) to substancje barwnikowe o różnym składzie chemicznym (jest ich zbyt dużo, by je tutaj wymieniać) i one same mogą wykazywać nawet aktywność antybakteryjną – tak działa na przykład kurkuma czy szafran. Dlatego raczej nie będą one pożywką dla kolejnych bakterii. Substancje takie jak cukry czy białka, którymi bakterie się żywią, szybko się spiorą.

Niestety niektóre z tych barwników mają wysoką zdolność do wiązania się z włóknami odzieży, zwłaszcza naturalnymi, takimi jak bawełna (w chemii mówi się wówczas o powinowactwie). Dawniej były nawet wykorzystywane do barwienia tkanin.

Okazuje się, że temat wcale nie jest trywialny, a przemysł środków piorących notuje milionowe obroty.

Dobrym sposobem na takie plamy jest użycie substancji o wyraźnym pH (wyższym lub niższym niż obojętne), a więc na przykład sody oczyszczonej (jako substancji zasadowej) lub octu (jako substancji kwaśnej). Trudno tu wyrokować, co sprawdzi się w konkretnym przypadku. Na plamy tłuste może zadziałać alkohol. Plamę moczymy w tych substancjach (jednej albo drugiej, ale nigdy w obu, bo się neutralizują), po czym pierzemy w możliwie wysokiej temperaturze.

W przypadku plam białych można oczywiście użyć wybielacza. Ewentualnie niewielka ilość nadwęglanu sodu (bez problemu da się go kupić w internecie) może zadziałać zarówno w przypadku białych, jak i kolorowych ubrań. Nadwęglan mieszamy z wodą i moczymy w tym plamę przez chwile, po czym dodajemy go trochę do prania. Uwaga: w przypadku takiego rozwiązania stosujemy niewielką ilość i robimy to na własne ryzyko, bo choć jest środkiem łagodnym, może odbarwić nie tylko plamę.

prof. dr hab. Robert Musioł
Dyrektor Instytutu Chemii
Uniwersytet Śląski w Katowicach

  1. Proces starzenia jest bardzo złożony, o czym świadczyć może mnogość teorii próbujących tłumaczyć zmiany zachodzące w organizmie w trakcie tego procesu. Mało zatem prawdopodobne, aby włączenie tylko jednej substancji miało kluczowe znaczenie we wpływie na długowieczność. Zgodnie z obecnym stanem wiedzy nie istnieje żaden farmaceutyk, który w sposób kontrolowany zwiększałby liczbę histonów lub prowadził do zagęszczenia helisy DNA. Badania wskazują, że nie tylko zmiana liczby histonów, ale również ich warianty i ich modyfikacje chemiczne mogą uczestniczyć w procesie starzenia się. 

Przykłady:

Badania na myszach wykazały, że wariant histonu H3.3 (który różni się od formy kanonicznej czterema aminokwasami) gromadzi się w różnych tkankach podczas starzenia się. Co więcej, wariant H3.3 wiązał się z procesami starzenia u niepasożytniczego nicienia Caenorhabditis elegans. Histony mogą podlegać modyfikacjom posttranslacyjnym. W zależności od histonu i rodzaju modyfikacji (takimi jak na przykład metylacja, acetylacja, fosforylacja i ubikwitynacja) zmiany te mogą uczestniczyć w zmianie profilu ekspresji genów związanych z procesami starzenia się. Badania przeprowadzone na Caenorhabditis elegans wykazały, że trimetylacja lizyny w histonie H3 (H3K4me3) może negatywnie wpłynąć na długowieczność. Podobne obserwacje wykazano w analizach dotyczących owadów z rodzaju Drosophila. Badanie przesiewowe dotyczące przeżycia drożdży Saccharomyces cerevisiae ujawniło niedobór metylacji H3K36, co powodowało skrócenie długości życia. Należy zatem podkreślić, że badania te dotyczyły organizmów znacznie prostszych niż organizm człowieka. 

 

  1. Ograniczenie pozareplikacyjnych czynników degeneracyjnych jest możliwe w – nomen omen – ograniczony sposób. Jednym ze sposobów jest stosowanie związków, które chronią komórki przed stresem oksydacyjnym. Stres oksydacyjny jest jednym z głównych czynników przyczyniających się do pozareplikacyjnej degeneracji komórek. Przykładami antyoksydantów (przeciwutleniaczy) są kwas askorbinowy, α-tokoferol, selen oraz acetylocysteina.

Według naszej wiedzy badania nad zastosowaniem epitalonu były prowadzone jedynie na myszach i organizmach modelowych (np. Drosophila) i to dekadę temu. Epitalon jest syntetycznym krótkim peptydem składający się z czterech aminokwasów (alaniny, kwasu glutaminowego, kwasu asparaginowego i glicyny), opartym na naturalnym peptydzie zwany epithalamionem. Ten krótki peptyd jest znany już od ponad 30 lat. Początkowo substancja została znaleziona w ekstraktach z mózgów zwierząt. U samców szczurów powoduje ona bezpośrednie działanie antyoksydacyjne, ale także stymuluje ekspresję SOD, ceruloplazminy i innych enzymów o działaniu antyoksydacyjnym. Należy jednak podkreślić, że doświadczenia przeprowadzane na zwierzętach nie zawsze są jednoznacznie przekonujące. Motywowane jest to faktem odmienności gatunkowej między ludźmi a zwierzętami oraz tym, że każdy gatunek funkcjonuje w odmienny sposób, na podstawie typowej fizjologii i indywidualnego kodu genetycznego. Organizmy ludzkie i zwierzęce, ze względu na wspomniane różnice, reagują inaczej na dane substancje czy czynniki zewnętrzne (przykładowo: cyjanek potasu to jedna z najbardziej niebezpiecznych trucizn dla ludzi, w przeciwieństwie do królików, w przypadku których przyjęcie nawet podwójnej dawki tej substancji nie spowoduje zgonu). Trudno zatem wnioskować na podstawie obecnie dostępnych danych o wpływie zaaprobowanej suplementacji na długość życia oraz o bezpieczeństwie jej użycia u człowieka.

Piśmiennictwo:

Saul D, Kosinsky RL. Epigenetics of Aging and Aging-Associated Diseases. Int J Mol Sci. 2021 Jan 2;22(1):401. doi: 10.3390/ijms22010401. PMID: 33401659; PMCID: PMC7794926.

Soto-Palma C, Niedernhofer LJ, Faulk CD, Dong X. Epigenetics, DNA damage, and aging. J Clin Invest. 2022 Aug 15;132(16):e158446. doi: 10.1172/JCI158446. PMID: 35968782; PMCID: PMC9374376.

Liguori I, Russo G, Curcio F, Bulli G, Aran L, Della-Morte D, Gargiulo G, Testa G, Cacciatore F, Bonaduce D, Abete P. Oxidative stress, aging, and diseases. Clin Interv Aging. 2018 Apr 26;13:757-772. doi: 10.2147/CIA.S158513. PMID: 29731617; PMCID: PMC5927356.

Yue X, Liu SL, Guo JN, Meng TG, Zhang XR, Li HX, Song CY, Wang ZB, Schatten H, Sun QY, Guo XP. Epitalon protects against post-ovulatory aging-related damage of mouse oocytes in vitro. Aging (Albany NY). 2022 Apr 12;14(7):3191-3202. doi: 10.18632/aging.204007. Epub 2022 Apr 12. PMID: 35413689; PMCID: PMC9037278.

dr hab. n. med. Joanna Strzelczyk, profesor SUM
Śląski Uniwersytet Medyczny w Katowicach

W pięknie ilustrowanej książce pt. „Co to jest szkoła?” (Luca Tortolini, Marco, Soma) można przeczytać, że „wszystkie dzieci w szkole tworzą grupę: wymieniają się pomysłami, długopisami i gumkami, a czasem także kanapkami, numerami telefonów albo uściskami dłoni. W ten sposób rodzą się przyjaźnie. […] W szkole wszystko się łączy i przeplata, żebyś nauczył się żyć w zgodzie z samym sobą i całym światem. […] Szkoła to miejsce otwarte, nawet gdy ma zamknięte okna i drzwi. To przestrzeń pełna pomysłów i słów. Za ich pomocą możesz zbudować nowe, lepsze jutro: różnorodne i wielobarwne, a przez to ciekawe i piękne”. Szkoła może być miejscem spotkań i współpracy uczniów, nauczycieli, rodziców, zaproszonych gości, przestrzenią do nauki, wymiany pomysłów i doświadczeń, wyciągania wniosków z popełnianych błędów, testowania rozwiązań, zawierania przyjaźni… Jest potrzebna, ponieważ stanowi jedną z opcji do wyboru, na którą można się zdecydować realizując obowiązek nauki.

 

dr Magdalena Christ
doktor nauk społecznych w zakresie pedagogiki
adiunkt w Instytucie Pedagogiki na Wydziale Nauk Społecznych Uniwersytetu Śląskiego w Katowicach

  1. Chciałam się dowiedzieć jak udowodnić zmianę stosunków wodnych na sąsiednich działkach/gruntach?
  2. Jakie badania są do tego potrzebne?
  3. Jakie dowody trzeba przedstawić?
  4. Jaki konkretny naukowiec ( imię nazwisko) się tym zajmuje?
  5. Jaki jest koszt takiej ekspertyzy?
  6. Jak można rozwiązać problem zalewania działki?

Odpowiedź zacznę od czwartej części pytania – taki problem może rozwiązać hydrogeolog z uprawnieniami, który sporządzi opinię hydrogeologiczną. Gdzie szukać takiego hydrogeologa? Jest wiele firm geologicznych (można wygooglać: hydrogeolog, opinie hydrogeologiczne, badania hydrogeologiczne i.t.p.), które zapewne podejmą się takiego zadania. Nie chcę podawać konkretnej nazwy takiej firmy, bo wybór zależy od miejsca zamieszkania (najlepiej, żeby siedziba firmy była blisko wspomnianej działki – wtedy zmniejszają się koszty transportu), obłożenia danej firmy zadaniami (firma, która realizuje duże zadanie np. dla polskiego lub zagranicznego kontrahenta może zaproponować dość odległy termin). Poza tym wybór spośród kilku takich firm pozwala wybrać ofertę najkorzystniejszą cenowo.

I teraz odpowiedź na piątą część pytania – koszty są oczywiście różne i zależne od konieczności przeprowadzenia badań i ich rodzaju. Myślę, że ogólnie trzeba liczyć się z kosztami na poziomie 1000 – 2000 zł. Będzie to również zależeć od zakresu zadań: czy opinia ma dotyczyć tylko udowodnienia zmiany stosunków wodnych czy również ma pokazać problem zalewania działki i możliwe rozwiązania.

Odpowiedź na trzecią część pytania jest stosunkowo najprostsza – dowodem na zmianę stosunków wodnych będzie właśnie wspomniana opinie hydrogeologiczna sporządzona przez hydrogeologa z uprawnieniami. Zwracam uwagę aby osoba podpisująca taką opinię oprócz imienia i nazwiska podała swój numer uprawnień geologicznych, w tym wypadku powinna to być kategoria czwarta lub piąta (kategorie hydrogeologiczne). Lista osób z posiadających uprawnienia z podziałem na kategorie znajduje się na stronie Ministerstwa Klimatu i Ochrony Środowiska: https://bip.mos.gov.pl/uprawnienia-geologiczne/wykaz-osob-posiadajacych-uprawnienia/

Odpowiadając na drugą część pytania muszę zastrzec, że bez rozpoznania terenowego nie mogę udzielić precyzyjnej odpowiedzi. Sądzę, że hydrogeolog zajmujący się tą sprawą będzie musiał przybyć na tę działkę co najmniej dwukrotnie: raz aby wstępnie rozpoznać problem i ustalić właśnie zakres terenowych badań hydrogeologicznych, a drugi raz – aby te badania przeprowadzić. W zależności od sytuacji terenowej najprostsze badania mogą obejmować: obserwacje wydajności źródeł (jeśli takie źródła są w pobliżu działki) wraz z poszukiwaniem informacji archiwalnych o wydajności tych źródeł w latach wcześniejszych; pomiary wielkości przepływu w ciekach w pobliżu działki; obserwacji stanów wody w studniach, ustalenie w drodze kartowania hydrogeologicznego oraz z wykorzystaniem map hydrogeologicznych charakteru tych zmian stosunków wodnych. Jeśli hydrogeolog dojdzie do wniosku, że konieczne jest wykonanie urządzenia do obserwacji położenia zwierciadła wód na działce (piezometru) to koszt może trochę wzrosnąć. Mogą być konieczne do wykonania również badania geofizyczne (ok. 2000 zł za jeden profil). Hydrogeolog będzie też musiał ustalić czy w ostatnim czasie nie zaszły w okolicy, jakieś istotne dla stosunków wodnych zmiany, np. czy nie zaprzestano odwadniania nieczynnej kopalni, czy na sąsiednich działkach nie powstały studnie głębinowe, czy w ramach regulacji rzek nie uszczelniono koryta albo czy w pobliżu nie powstaje duży obiekt budowlany, którego wykopy fundamentowe sięgają bardzo głęboko (np. kilka podziemnych kondygnacji).

Odpowiedź na pierwszą część pytania, w świetle tego co przedstawiłem dotychczas, nie jest możliwa bez dokładnej lokalizacji wspomnianej działki, badań hydrogeologicznych, o których napisałem w odpowiedzi na część drugą pytania. Istotne jest również czy problem zmian stosunków wodnych dotyczy większego obszaru (np. kilku wsi, całej gminy) czy też jest problemem lokalnym (kilka sąsiednich działek). Ważny jest również kierunek tych zmian: czy notujemy obniżenie się poziomu wody czy jej podwyższenie? Biorąc pod uwagę szóstą część pytania przyczyny mogą być następujące:

  • podniesienie się zwierciadła wód podziemnych spowodowane zaprzestaniem odpompowywania wód z zamkniętej już kopalni,
  • wyłączenie studni głębinowych znajdujących się w pobliżu,
  • podpiętrzenie wód w rzekach i ciekach powierzchniowych (budowle hydrotechniczne),
  • likwidacja starorzeczy, bagien i innych obszarów, gdzie woda gromadzi się w sposób naturalny,
  • zły stan urządzeń melioracyjnych (rowy, kanalizacja deszczowa), których zadaniem jest odprowadzanie nadmiaru wody deszczowej w okresach spiętrzeń (roztopy, deszcze nawalne),
  • uszczelnienie warstwy przypowierzchniowej gruntu (np. wyasfaltowanie) co powoduje, że woda opadowa nie ma możliwości wsiąkania i spływa grawitacyjnie po powierzchni ziemi,
  • niekorzystne zmiany ukształtowania terenu na sąsiednich działkach.

dr Piotr Siwek
Uniwersytet Śląski w Katowicach
Wydział Nauk Przyrodniczych
Instytut Nauk o Ziemi 

Na początku muszę stwierdzić, że na WNP UŚ nie jest wcale tak źle z tym rozwojem studentów. Studenci realizują projekty samodzielnie lub w zespołach złożonych samych studentów, studentów i promotorów lub studentów i szerszej grupy naukowców, wśród których są też profesorowie. Dla przykładu – w ubiegłym roku realizowany był projekt ogólnouczelniany „Uczelnie Przyszłości”, w ramach którego studenci dostawali 10 000 złotych na realizację swojego pomysłu. Warunek był taki, że student musiał znaleźć sobie opiekuna naukowego spośród nauczycieli akademickich (niekoniecznie z WNP) i musiał przedstawić dość szczegółowy plan co ma być zrobione i jaki będzie efekt końcowy tego projektu. Z WNP (tylko z części sosnowieckiej) udział wzięły dwie osoby z bardzo dobrym skutkiem.

Frustracja osoby zadającej pytanie może wynikać z faktu, że wiadomości o naborach do projektów nie wiszą na każdej tablicy ogłoszeniowej, a dotarcie do takich wiadomości jest utrudnione. Tutaj polecam bieżące monitorowanie „Wiadomości Studenckich” dystrybuowanych drogą mailową do wszystkich studentów posiadających konto w domenie us.edu.pl. Również zakładka „student” na stronie internetowej UŚ może pomóc w tym zakresie.

Uczestnictwo w projektach, badaniach podstawowych najlepiej realizować poprzez wybór odpowiedniego promotora. Jeżeli twój promotor nie składa wniosków o granty, nie jest członkiem zespołów projektowych to oczywiście nie możesz liczyć na udział w takich projektach. Trzeba więc interesować się życiem naukowym i patrzeć, kto ma tutaj duże osiągnięcia.

I ostatnia sprawa – trzeba mieć swoje zainteresowania, artykułować je (np. poprzez udział w kołach naukowych, organizacji wydarzeń promocyjnych na wydziale). I oczywiście – sprawnie posługiwać się językiem obcym. Profesorowie i inni nauczyciele również obserwują studentów, wyłapują tych którzy wykazują się zdecydowanie wyższym poziomem wiedzy w zakresie swoich zainteresowań i jeśli widzą możliwość udziału studenta w prowadzonych badaniach to często korzystają i jego pomocy. Znam wiele prac magisterskich, które powstały w wyniku badań przewidzianych w grantach (w tym również badań polarnych, wiążących się np. z wyjazdem na kilka miesięcy na Spitsbergen). Nie zawsze wiąże się to z wynagrodzeniem, ale często – tak. Dlatego szanowna Studentko, Studencie pokaż w czym jesteś dobra/y, a znajdziesz możliwości rozwoju naukowego.

dr Piotr Siwek
Uniwersytet Śląski w Katowicach
Wydział Nauk Przyrodniczych
Instytut Nauk o Ziemi 

Uniwersytet Śląski w Katowicach oferuje osobom zainteresowanym podjęciem pracy w uczelni 2 główne ścieżki rozwoju zawodowego – na stanowiskach w grupie nauczycieli akademickich oraz w obszarze administracji akademickiej. Informacje o aktualnie prowadzonych procesach rekrutacji na wolne stanowiska pracy publikowane są na stronie uczelni oraz w dodatkowych portalach (np. Akademicka Baza Ogłoszeń, Euraxess). Osoby kandydujące składają aplikację w sposób podany w ogłoszeniu i, po zakwalifikowaniu się do kolejnego etapu rekrutacji, zapraszane są do udziału w spotkaniach z komisjami prowadzącymi postępowanie. Komisje udzielają rekomendacji do zatrudnienia osobie, której kandydatura w najwyższym stopniu spełnia profil wymagań wskazanych w ogłoszeniu. Decyzję o zatrudnieniu podejmują władze uczelni.

 

Wszystkich zainteresowanych pracą w Uniwersytecie zachęcamy do zapoznania się ze stroną Jak pracujemy oraz zakładką Oferty pracy

Katarzyna Więcek-Jakubek
Kierownik Działu HR 

Zagadnienie jest dość złożone i trudno udzielić jednoznacznej (zawsze słusznej) odpowiedzi. Wiele zależy od konkretnego przypadku, rodzaju, ilości oraz jakości składników a także typu przetworu. Jednak można pokusić się o wytypowanie pewnych ogólnych zasad rządzących jakością takich przetworów oraz wpływem ich konsumpcji na zdrowie. Po pierwsze zatem spożywanie fermentowanej żywności w szczególności przetworów mlecznych, owocowo-warzywnych ma pozytywny wpływ na nasze zdrowie i nie licząc pewnych specjalnych przypadków np. nadmiernej konsumpcji zawsze wiąże się z korzyściami zdrowotnymi. Podczas takiej fermentacji zachodzi szereg przemian biochemicznych, które również zależą od wielu czynników ale najważniejszym elementem jest przetworzenie laktozy (oraz fruktozy czy glukozy) zawartej w mleku na kwas mlekowy, aldehyd octowy i pochodne. Z tego powodu mogą być bezpiecznie spożywane przez osoby (większość) z nietolerancją laktozy. Dodatkowo w wyniku pracy bakterii pojawia się w nim więcej niektórych witamin (zwłaszcza kw. foliowego) oraz ważnych aminokwasów. Same bakterie natomiast przyczyniają się do odbudowy mikroflory jelitowej przez co jogurty czy kefiry uważa się za probiotyki. Co istotne podczas fermentacji powstają też pewne ilości antyoksydantów a zwiększona kwasowość i obecność witaminy C wraz z kwasem mlekowym mogą mieć działanie stabilizujące na większość antyoksydantów czy polifenoli obecnych w owocach. Efekt ten jest szczególnie silny w przypadku owoców ciemnych (jagody, wiśnie, porzeczka oraz czekolada czy zielona herbata). Zatem w tym świetle można uznać że jogurt z dodatkiem owoców/soku będzie miał nawet więcej tych ważnych substancji. Podobnie jeśli zmieszamy jogurt naturalny z warzywami nie spowodujemy „zniszczenia” antyoksydantów. Pojawiają się nawet pojedyncze badania wskazujące że dłuższe przechowywanie jogurtu (w warunkach chłodniczych) nie wpływa na obniżenie zawartości antyoksydantów  a wręcz przeciwnie – powoduje ich zwiększenie. Nieco słabiej został zbadany wpływ fermentowanych przetworów mlecznych na wchłanianie antyoksydantów. Znany jest fakt większej dostępności niektórych metali (żelazo, selen), pojawiają się też doniesienia naukowe sugerujące że i inne substancje mogą zyskać większą dostępność w takich produktach. Można założyć, że będzie ona większa niż w przypadku produktów niefermentowanych, ponieważ białka mleka mają znany efekt hamujący wchłanianie niektórych antyoksydantów czy innych substancji. W wyniku fermentacji profil proteinowy zmienia się znacząco i powstają warunki mogące sprzyjać biodostępności. Jednak mnogość różnych produktów (fermentacja w różnych warunkach, zmienność dodatków, zawartość tłuszczu) oraz antyoksydantów nie pozwala wysnuwać wniosków ogólnych. Warto jeszcze wspomnieć że jogurty owocowe bardzo często zawierają znaczne ilości cukru, a kolor nie zawsze pochodzi od owoców które miały być do niego dodane (np. sok z buraków czy koszenila mają sugerować dużą ilość owoców w jogurcie). Stąd przygotowane własnoręcznie z jogurtów naturalnych czy kefirów oraz owoców (czy warzyw można pozwolić sobie na eksperymenty) będą z pewnością bogatsze w antyoksydanty oraz inne ważne składniki żywieniowe. 

prof. dr hab. Robert Musioł
Dyrektor Instytutu Chemii
Uniwersytet Śląski w Katowicach

Wody rzeczne niezanieczyszczone zawierają kilka podstawowych jonów występujących w różnych proporcjach. Są to jony wapnia (Ca2+), magnezu (Mg2+), sodu (Na+), potasu (K+) oraz jony wodorowęglanowe (HCO3-), siarczanowe (SO42-) i chlorkowe (Cl-). Mogą pojawić się również jony azotanowe, azotynowe, żelazowe, amonowe, a w mniejszych stężeniach także metale ciężkie i inne. Innym składnikiem wód rzecznych są bakterie i inne mikroorganizmy powszechnie występujące w wodzie. Jest to zjawisko normalne i dopóki nie przekraczają one stężeń opisanych w stosownych aktach prawnych nie są traktowane jako zanieczyszczenia. To czy określone stężenie danego jonu, innej substancji czy mikroorganizmów jest już zanieczyszczeniem wynika z przeznaczenia wody. Inne zakresy stężeń są dopuszczalne dla wód przeznaczonych do spożycia, inne dla wód wykorzystywanych do produkcji żywności, a jeszcze inne do wód wykorzystywanych do celów przemysłowych.

Wody podziemne są z reguły bardziej czyste niż wody powierzchniowe, zawierają mniej mikroorganizmów i mniejsze stężenia wspomnianych jonów. Wody kopalniane są najczęściej wodami podziemnymi, czasem z domieszką wód powierzchniowych. Jednakże z im większej głębokości pochodzą tym są zwykle bardziej zasolone. Oznacza to, że zwiększa się w nich stężenie jonów chlorkowych i sodowych. Bardzo często stężenia te wzrastają z kilku miligramów nawet do kilkudziesięciu gramów w jednym litrze wody. Wody kopalniane odprowadzane są zwykle systemem pompowni na powierzchnię, tutaj są gromadzone w osadnikach i zrzucane do wód powierzchniowych. Niekiedy stosuje się jakieś proste metody uzdatniania tych wód, aby obniżyć ich zasolenie. Warto dodać, że każdy podmiot, który zrzuca wody kopalniane do wód powierzchniowych powinien posiadać na to tzw. pozwolenie wodnoprawne, w którym jest określone jaką ilość wód w jednostce czasu i o jakich stężeniach głównych jonów, może odprowadzić do rzek czy jezior.

W jaki sposób wpływa to na rzeki, jeziora? To zależy od ilości wody przepływającej w rzece czy zawartej w misie jeziornej. W odniesieniu do dużych rzek, np. Wisła, Odra, przy ich normalnych przepływach wpływ zasolonych wód kopalnianych przestaje być widoczny już po kilku – kilkunastu kilometrach biegu rzeki od miejsca zrzutu. Gorzej jest w przypadku małych cieków oraz dużych rzek w okresach długotrwałych susz, kiedy procentowy udział zasolonych wód kopalnianych zaczyna dominować nad przepływami wód słodkich. Ekosystemy takich małych rzek ulegają często przekształceniom: gatunki wyraźnie słodkolubne powoli zanikają, a w to miejsce pojawiają się gatunki słonolubne albo takie, które mają dużą tolerancję na zmiany zasolenia wód. W perspektywie wielolecia może to prowadzić do trwałego przekształcenia, głównie składu gatunkowego zwierząt w takim ekosystemie.

Pytanie o zalew Dzierżno jest zapewne spowodowane ostatnimi doniesieniami medialnymi o pojawieniu się tam „złotej algi”, która dwa lata temu dokonała spustoszeń w ekosystemie Odry. Prymnesium parvum, bo taka jest prawidłowa nazwa tego organizmu, jest słonolubna. Jest dość powszechna w Bałtyku i innych morzach i oceanach, najlepiej rozwija się w środowisku wód słonych. Jej występowanie w wodach zasolonych nie jest szkodliwe np. dla ryb żyjących w tych samych wodach. Problemem jest zmiana warunków zasolenia. Jeżeli nastąpi gwałtowne wysłodzenie wód, w których żyje Prymnesium parvum – jej komórki pękają i wydzielają szkodliwe toksyny. Wtedy dochodzi do masowego śnięcia ryb i katastrofy ekologicznej podobnej do tej, którą mogliśmy obserwować na Odrze w 2022 r.

dr Piotr Siwek
Uniwersytet Śląski w Katowicach
Wydział Nauk Przyrodniczych
Instytut Nauk o Ziemi 

Rozpocznijmy tą odpowiedź od ustalenia czym w ogóle jest „kosmita”. Definicja kosmity odnosi się do każdej formy życia pochodzącej spoza Ziemi, czyli życia pozaziemskiego. W najprostszych słowach, kosmita to istota lub organizm żyjący, który pochodzi z innej planety, księżyca, gwiazdy lub innego miejsca w kosmosie. Nie ma tutaj ograniczenia tylko do zaawansowanych form życia, takich jak inteligentne istoty. Może być to każda forma życia, w tym mikroorganizmy, bakterie, a także hipotetyczne, zaawansowane cywilizacje. Popatrzmy na ten aspekt mając na uwadze naukową definicję kosmity:

  • Brak dowodów naukowych

Na ten moment nie ma dowodów naukowych, które potwierdzałyby, że kosmici kiedykolwiek byli na Ziemi lub że istnieją inne zaawansowane cywilizacje pozaziemskie, które odwiedziły naszą planetę. Pytanie o obecność kosmitów na Ziemi jest częścią szerszej debaty dotyczącej życia pozaziemskiego, które od dawna intryguje naukowców, filozofów i społeczeństwo.

  • Tajemnicze zjawiska i legendy

Zarówno w przeszłości, jak i współcześnie pojawiały się historie, które sugerowałyby kontakt z istotami pozaziemskimi. Starożytne kultury często przedstawiały bogów, duchy czy inne istoty, które niektórzy współcześni interpretatorzy uważają za kosmitów (np. teoria "starożytnych astronautów"). Jednakże większość naukowców uważa, że są to symbole religijne, mityczne opowieści lub niezrozumiałe wówczas zjawiska naturalne.

  • Paradoks Fermiego – (bardzo polecam zagłębić się w temat!)

Jednym z ważniejszych argumentów filozoficznych w tej dyskusji jest tzw. paradoks Fermiego, który zadaje pytanie: jeśli w kosmosie jest tak wiele potencjalnie zamieszkałych planet, to dlaczego nie mamy jeszcze żadnych dowodów na istnienie innych cywilizacji? Mogą istnieć różne odpowiedzi, takie jak:

  • Życie pozaziemskie może być zbyt rzadkie lub odległe.
  • Jesteśmy pierwszą cywilizacją w kosmosie.
  • Cywilizacje mogą się niszczyć, zanim osiągną poziom, który umożliwiłby międzygwiezdne podróże.
  • Kosmici mogą po prostu nie być zainteresowani Ziemią lub świadomie unikać kontaktu.

 

Jeżeli natomiast spojrzymy na to pytanie od innej strony, zakładając że „kosmitą” mogą być też proste struktury biologiczne, to śmiało możemy powiedzieć że tak!

Mowa tutaj o odkryciach związanych z meteorem Murchison, który spadł w 1969 roku w Australii, w miasteczku, od którego dostał nazwę. Jego masa całkowita wynosiła około 100 kg, a fragmenty były szybko zabezpieczone, co pozwoliło na zachowanie materiału w niemal nienaruszonym stanie. Murchison należy do grupy chondrytów węglistych, które są jednymi z najstarszych i najbardziej prymitywnych meteorytów w Układzie Słonecznym. Chondryty węgliste zawierają znaczne ilości związków węgla, w tym związki organiczne, co czyni je szczególnie interesującymi w badaniach nad pochodzeniem życia.

  • Skład chemiczny meteorytu

Najbardziej spektakularnym odkryciem związanym z meteorytem Murchison było wykrycie w nim aminokwasów – podstawowych cegiełek budujących białka, które są kluczowe dla życia na Ziemi. Co więcej, meteoryt zawierał inne złożone cząsteczki organiczne, które mogą być prekursorami biochemicznych procesów prowadzących do powstania życia.

Kluczowe związki organiczne znalezione w meteorycie Murchison:

  • Aminokwasy: Odkryto ogrom różnych aminokwasów, w tym zarówno te powszechnie występujące na Ziemi (np. glicyna, alanina), jak i te rzadkie lub nieznane w ziemskiej biochemii. Co ważne, niektóre z tych aminokwasów nie są spotykane w ziemskim życiu, co sugeruje ich kosmiczne pochodzenie.
  • Nukleotydy: Prekursory kwasów nukleinowych (RNA, DNA), które są nośnikami informacji genetycznej w organizmach.
  • Inne proste związki organiczne: Mogą one pełnić ważną rolę w prebiotycznej chemii, prowadzącej do powstania złożonych biomolekuł.

 

  • Znaczenie odkrycia aminokwasów w meteorycie

Odkrycie aminokwasów w meteorycie Murchison było przełomowe, ponieważ wskazywało, że związki organiczne mogą powstawać poza Ziemią i mogą być naturalnie dostarczane na naszą planetę. W tym kontekście meteoryt Murchison stał się ważnym elementem dyskusji na temat hipotezy panspermii, która zakłada, że podstawowe składniki życia mogły zostać przetransportowane na Ziemię z kosmosu przez meteoryty, komety i pył kosmiczny.

  • Wpływ na teorię powstania życia na Ziemi

Odkrycie związków organicznych w meteorycie Murchison dostarczyło mocnych argumentów wspierających hipotezę, że życie na Ziemi mogło mieć swój początek dzięki dostawom materii organicznej z kosmosu. Na młodej Ziemi, która była narażona na intensywne bombardowanie przez meteoryty, te związki mogły dostarczać niezbędnych elementów, które później uczestniczyły w procesach prebiotycznych, prowadzących do powstania pierwszych organizmów żywych. Odkrycie aminokwasów w Murchisonie wskazuje, że materia organiczna mogła być dostarczana na Ziemię na długo przed pojawieniem się życia, co mogło stworzyć "bulion pierwotny", z którego wyewoluowały prymitywne formy życia.

 

Odkrycia związane z meteorytem Murchison mają również kluczowe znaczenie dla poszukiwań życia w innych częściach Układu Słonecznego, takich jak Mars, Europa (księżyc Jowisza) czy Enceladus (księżyc Saturna). Jeżeli aminokwasy i inne związki organiczne mogły powstawać w przestrzeni kosmicznej i być dostarczane na Ziemię, to podobne procesy mogły zachodzić na innych planetach lub ich księżycach, co zwiększa szanse na istnienie życia w tych miejscach.

dr Anna Dzionek 
Uniwersytet Śląski w Katowicach 
Wydział Nauk Przyrodniczych 

Rzeczywiście taka opinia jest dość popularna. Podobnie rzecz ma się z nowotworami jąder u mężczyzn. Jednak należy je traktować raczej w kategorii tzw.  miejskich legend. Nie ma jednoznacznych dowodów medycznych, że bezpośrednie urazy tkanek miękkich mogą zaowocować powstaniem nowotworu. Przynajmniej nie w zakresie piersi czy jąder. Powstanie tych przekonań można wytłumaczyć zwiększoną wykrywalnością guzów u pacjentów leczonych po takim urazie. Prześwietlenia, analiza USG czy inne badania pozwalają wykryć podejrzanego guza, który w normalnych warunkach przez jakiś czas pozostawałby niezauważony. Zjawisko to jest właśnie jeszcze częstsze w przypadku nowotworów jąder i przez jakiś czas było przedmiotem debaty również między lekarzami. Prawdopodobnie dochodzi tu do koincydencji kilku przypadków. Po pierwsze największe ryzyko zachorowania na tego typu nowotwory przypada na okres 25-35 lat (przeciwnie do większości nowotworów, kojarzonych raczej z późniejszym wiekiem). Po drugie wiek ten to również okres (jeszcze) wzmożonej aktywności sportowej, w trakcie której łatwo dochodzi do urazów. Na przykład podczas grania w piłkę, młody mężczyzna jest potem badany i wykrywa się guza, który normalnie nie dałaby objawów jeszcze przez kilka lat. Po raz kolejny widać jak ważna jest świadomość własnego ciała i częste badanie.

Co ciekawe, w przypadku urazów głowy jednak takie podejrzenie wydaje się mieć słabe umocowanie w wynikach badań. Jednak również w tym przypadku ryzyko takie szacuje się poniżej 1%. W związku z tym trudno jednoznacznie stwierdzić czy rzeczywiście jakiś konkretny guz powstał w wyniku wcześniejszego urazu. Należy pamiętać, że w medycynie anegdotyczne doniesienia nie mają takiej siły dowodu jak badania z uwzględnieniem statystyki. To było dobrze widać w przypadku amantadyny która miała leczyć covid bo ktoś znał pacjenta, który poczuł się lepiej po jej przyjęciu. Tymczasem badania przeprowadzone na setkach pacjentów w kontrolowanych warunkach nie wykazały działania.

Podsumowując urazów bać się należy -  to znaczy należy ich unikać, jednak nie należy wpadać w panikę że na pewno grozi nam teraz nowotwór. Jednak – warto się zbadać przy takiej okazji.

prof. dr hab. Robert Musioł
Dyrektor Instytutu Chemii
Uniwersytet Śląski w Katowicach

 

Dziękuję za bardzo ciekawe pytanie z dziedziny medycyny . Dotyczy ono dwóch kwestii .Po pierwsze etiologii czyli przyczyny schorzenia , oraz po drugie zmian nowotworowych o różnych lokalizacjach (pierś , mózg ).

Na początku przyjrzyjmy się urazom , których następstwa nie zależą tylko od energii urazu , ale i lokalizacji oraz tkanek których dotyczą .W naszym przypadku mówimy o urazie tkanek miękkich , pierwszym następstwem takiego urazu jest krwiak powstający miejscowo, będący następstwem uszkodzenia  bariery krew -tkanki otaczające. W dalszym etapie rozwoju krwiaka pourazowego rozpoczyna się faza zapalna,  w której uwalniane czynniki zapalne , mogą mieć potencjalne działanie kancerogenne czyli rakotwórcze. Następnie   krwiak  ulega resorpcji czyli wchłonięciu. Także tkanki otaczające okolice krwiaka mają różne możliwości regeneracji  .W przypadku naszego pytania dotyczy ono tkanek mózgowia i gruczołu piersiowego , generalnie regeneracja komórek mózgowia jest organiczna , w przeciwieństwie do komórek gruczołu piersiowego  .

Choroby nowotworowe spowodowane są najczęściej czynnikami genetycznymi , środowiskowymi ,  hormonalnymi ,ekspozycją na promieniowanie rentgenowskie, stylem życia i innymi , jednak tło urazowe powstawiania nowotworów jest bardzo dyskusyjne , szczególnie że jest ono trudne do ustalenia .

Szczególnie jeśli chodzi o nowotwory piersi , to tło urazowe tych zmian zostało w wielu badaniach wykluczone .Temat etiologii pourazowej nowotworów piersi był badany, i próbowano ocenić wpływ urazu okolicy piersi np. z 5 lat poprzedzających wystąpienie procesu nowotworowego , to jednak nie udało się wykazać związku pomiędzy urazem i nowotworem piersi .

Natomiast w zakresie etiologii glejaków mózgu, które są często występującym nowotworem złośliwym mózgu , uważa się że tło urazowe nie jest przyczyną powstawania tych guzów .

Na koniec chciałbym zwrócić uwagę, aby w wypadku wystąpienia po urazie jakichkolwiek niepokojących objawów, a szczególnie objawów neurologicznych po urazie głowy, zawsze warto skonsultować się z lekarzem.

 

dr hab. Ryszard Tomaszewski, prof. UŚ
Wydział Nauk Ścisłych i Technicznych 
Uniwersytet Śląski w Katowicach 

Szkodliwość elektronicznych papierosów nie wynika jedynie ze szkodliwości substancji mutagennych czyli takich, które działając na DNA komórek mogą wywoływać mutacje a przez to przyczyniać się do rozwoju nowotworów. Substancje z dymu tytoniowego o takich właściwościach to przede wszystkim subst. Smoliste, wielopierścieniowe węglowodory aromatyczne, (nano)cząstki pyłu. W e-papierosach nie ma dymu sensu stricte tylko mgła powstająca po ochłodzeniu par substancji będących składnikami tzw „liquidu”. Na tych różnicach opierały  się założenia mniejszej szkodliwości e-papierosów. Niestety rzeczywistość odbiega nieco od tych założeń, bowiem e-dym okazuję się równie szkodliwy choć sam mechanizm tej szkodliwości jest odmienny. Corocznie notuje się większą liczbę przypadków ciężkiej niewydolności płuc w wyniku działania e-dymu tzw. EVALI od ang. E-cigarette or Vaping use-Associated Lung Injury (uszkodzenie płuc powiązane ze stosowaniem e-papierosów lub „vapingu”). Okazuje się, ze w skład mgły wdychanej podczas stosowania e-papierosów wchodzi szereg substancji potencjalnie szkodliwych (zw. karbonylowe np. aceton, acetoina, formaldehyd; metale ciężkie; lotne węglowodory, również wielopierścieniowe). Niektóre z nich mają potwierdzone działanie rakotwórcze inne działają niszcząco na błonę śluzową płuc i krtani. Co ważne substancje te w zdecydowanej większości powstają podczas stosowania e-papierosów a nie są dodawane do „liquidów”. Dlatego nie znajdziemy ich wśród składników. Jednak podczas podgrzewania mieszanki nośników i  aromatów do wysokiej temperatury w celu ich gwałtownego odparowania (na tym polega zjawisko określane w obrzydliwej kalce z angielskiego jako „vapowanie”) zachodzi szereg reakcji chemicznych w których powstają nowe związki. Producenci płynów często podkreślają, że stosują składniki bezpieczne np. aromaty dopuszczone do stosowania w żywności. Jednak nie biorą pod uwagę tego, że przed dopuszczeniem nie są one testowane w temperaturze przekraczającej 250 oC bo takich warunków nie ma przy obróbce żywności.

Po więcej informacji można zajrzeć na stronę:

https://www.gov.pl/attachment/a71154db-55c9-4c22-b29c-98360b821924 

prof. dr hab. Robert Musioł
Dyrektor Instytutu Chemii
Uniwersytet Śląski w Katowicach

Odpowiadając zwięźle na zadane pytanie, gry JRPG zaliczamy do gier RPG dlatego, że realizują one w unikalny kulturowo i znaczeniowo sposób konwencję rozgrywania przygód i rozwoju postaci w bogatym znaczeniowo świecie, dając unikalne możliwości utożsamiania się z postaciami poprzez zdobywanie wiedzy o nich, oraz lepsze ich rozumienie w ramach rozgrywki. Gry te oferują alternatywne sposoby zaangażowania w rozgrywanie ról, wytwarzanie znaczeń w ekologii świata gry, czy uczestnictwa w narracji. W przeszłości, a czasem i nadal są one obiektem porównań o charakterze orientalistycznym, w którym o ich wartości ma świadczyć spełniania lub odstępstwo od "Zachodnich" norm gatunkowych. Takie stanowisko jest krytykowane przez badaczki i badaczy zjawiska, którzy zgodnie wskazują na unikalny i oryginalny charakter gier JRPG jako RPG.

Rozszerzając odpowiedź warto zwrócić uwagę na zmianę znaczenia określenia JRPG, na które za Naokim Yoshidą wskazuje Emil Lundedal Hammar w swojej analizie tego pojęcia (Hammar 2023). Początkowo określenie JRPG miało charakter negatywny, dyskryminujący ze względu na cechy, które nie podobały się odbiorcom z Zachodu - do ich litanii zaliczyć można również te wymienione w skierowanym do nas pytaniu. Presupozycje tego typu dotyczące możliwości personalizacji awatara, czy dokonywania wyborów krytykuje przywoływana przez Hammara Joleen Blom, wyraźnie wskazując na to, że założenie dotyczące wyborów postaci, czy linearności rozgrywki pomijają kluczowy dla JRPG element powtarzalności i unikalności informacji otrzymywanych w kolejnych iteracjach rozgrywki, co przekłada się na unikalne doznania narracyjne i otwiera pole dyskusji dotyczących motywacji postaci, symboliki, itd., które Blom nazywa "konsumowaniem postaci". Blom twierdzi, że: "Struktura narracyjna JRPG nie powinna być definiowana przez upraszczające założenia, że JRPG zawierają linearne narracje, które wymuszają na graczach podążanie z góry założonymi ścieżkami. Fanowski dyskurs na temat linearności napędza jedynie Udziwnianie (org. Othering - MK) Japońskich RPG, aby ograniczyć je do statycznych tożsamości, gier, które oferują ograniczone wybory narracyjne. [...] twierdzę, że kluczem do podważenia Orientalistycznych przedsądów na temat linearności jest skupienie się na konsumowaniu postaci, które jest centralne dla medialnej mieszanki, która wykracza poza ograniczenia gier JRPG." (Blom 2022, p 89, przekład własny)

Współcześnie, jak pokazuje Nökkvi Jarl Bjarnason możemy rozróżnić głosy kwestionujące opozycję RPG / JRPG ze względu na cechy wspólne gier określanych tymi tagami, jak również głosy wzywające do rewizji ich znaczeń. Bjarnason wskazuje nam trzy poziomy, na których możemy rozważać RPG-owość JRPG'ów: 1. tematyczny związek z motywami fantastycznymi obecnymi w produkcjach z tego gatunku; 2. systemowe rozwiązania związane z implementacją mechanik rozgrywki; oraz 3. ekspresywne ograniczenia i możliwości wyrażenia siebie w danej grze (Bjarnason 2022, s. 39-41). Analiza tych poziomów pozwala nam odpowiedzieć na pytanie o przynależność JRPG do RPG twierdząco, JPRG współtworzą gatunek RPG i wprowadzają w jego ramach oryginalne rozwiązania światotwórcze, narracyjne, mechaniczne i dotyczące rozgrywania ról poszczególnych postaci.

Redaktorzy monografii poświęconej badaniu zjawiska JRPG, Rachael Hutchinson oraz Jérémie Pelletier-Gagnon we stępie do książki również wskazują na fakt, że gry JRPG zasługują na wyróżnienie ze względu na szereg cech szczególnych, ale podkreślają również, że powinniśmy uważać na ocenianie ich przez pryzmat schematów poznawczych wytwarzanych w kulturze "Zachodu". Badacze piszą: "Tematy, estetyka wizualna, dostępność, afordancje technologiczne, ekologia mediów narodowe pochodzenie oraz rozwój narracji stanowią zalewie kilka z wielu aspektów Japońskich gier roleplay, które od dawna identyfikuje się jako wyróżniające czynniki. Ta kolekcja cech, często wyrażana poprzez binarną perspektywę, często zakłada, że gry roleplayowe pochodzące z terytorów związanych z "Zachodem" (zasadniczo wskazującym na Północną Amerykę oraz Europę) stanowią jako normatywne standardy, oddzielające szerszy korpus na dwa bieguny, w których region i game design się przenikają, zachęcając do egzotyzujących interpretacji ufundowanych na postrzeganych społeczno-narodowych perspektywach. Oznacza to, że teksty kultury, które nie pasują do kategorii zdefiniowanych przez badaczy Euro-Amerykańskich są pomijane." (Hutchinson & Pelletier-gagnon 2022, p. 4, przekład własny).

Podsumowując, gry JRPG są w perspektywie badań groznawczych oraz kulturowych oryginalną ekspresją twórczą, realizującą właściwy ich kręgowi kulturowemu wzorzec rozgrywania roli, zaangażowania w narrację, mechaniki rozwoju postaci, progresji fabularnej oraz złożoności eksplorowanego świata. Badaczki i badacze wskazują na konieczność zawieszenia przedsądów na temat tego czym są gry RPG w oparciu o uprzywilejowany krąg rozumienia tego pojęcia na "Zachodzie", przestrzegając przed orientalizacją gier JRPG i kwestionowaniem ich przynależności do zdefiniowanych w Europie czy Ameryce Północnej standardów.

 

Bibliografia:

Hammar (2023): (J)RPGs, Orientalism, and the Usefulness of Theory, https://coe-gamecult.org/2023/05/17/emil-lundedal-hammar-jrpgs-orientalism-and-the-usefulness-of-theory/#8230

Bjarnason (2022): A Fantasy without a Dream: Japanese Role-Playing Games and the Absence of the Expressive Ideal, Replaying Japan, 2, pp. 11-21.

Hutchinson, Pelletier-Gagnon (2022): Japanese Role-playing Games: Genre, Representation, and Liminality in the JRPG, London: Lexington Books.

Blom (2022): “Challenging Linearity: Microstructures and Meaning-making in Trails of Cold Steel III.” In Hutchinson, Pelletier-Gagnon (2022): Japanese Role-playing Games: Genre, Representation, and Liminality in the JRPG, London: Lexington Books.

dr hab. Michał Kłosiński, prof. UŚ
Wydział Humanistyczny 
Uniwersytet Śląski

Aby odpowiedzieć na to pytanie, należy odnieść się do etymologii słów, historii języka oraz semantyki, czyli poziomu znaczeniowego.

„Myśleć” to forma dość młoda, upowszechniła się dopiero w drugiej połowie XVIII wieku, Wcześniejszą, staropolską była forma „myślić”, która zachowała się w tej postaci we współczesnych czasownikach: np. rozmyślić się,  zamyślić się, wymyślić, itp. Od czasownika „myślić” pochodzi też pierwotny przymiotnik (który z czasem się usamodzielnił składniowo i znaczeniowo, zmieniając się w rzeczownik)  - „myśliwy”. Od XVI w. znaczenie „myśliwy” zaczęło się zawężać do „przemyślny w łowieniu zwierzyny, biegły w polowaniu” (co ciekawe, dawniej była też używana żeńska postać przymiotnika: myśliwa), by z czasem utrwalić się w postaci rzeczownika o znaczeniu „ten, kto poluje na zwierzynę, łowca”. Jak więc widać, „myśliwy” i „myślenie” są ze sobą powiązane poprzez wspólne pochodzenie etymologiczne (wspólna podstawa słowotwórcza). Słowo „myśliwy” pochodzi od słowa „myśleć/myślić (staropolskie)” i odnosi się do osoby, która rozważa, planuje i podejmuje świadome decyzje podczas polowania. „Myślenie” natomiast jest procesem, który umożliwia myśliwemu analizowanie sytuacji, przewidywanie ruchów zwierząt i podejmowanie odpowiednich działań. W obu przypadkach chodzi o działanie umysłowe, który wiąże się z refleksją, analizą i planowaniem. Podsumowując,  „myśliwy” i „myślenie” mają ze sobą więcej wspólnego niż mogłoby się wydawać; nie tylko bowiem są sobie bliskie w warstwie językowej, ale także w warstwie zadaniowej, znaczeniowej: myślenie warunkuje sposób działania myśliwego.

dr Dominika Topa-Bryniarska

Wydział Humanistyczny Uniwersytetu Śląskiego w Katowicach

 

Głównym czynnikiem negatywnie działającym na naszą skórę jest światło ultrafioletowe czy w zakresie fal znajdującym się poza tym widzialnym przez nas. To właśnie ultrafiolet odpowiada za opalanie oraz starzenie się skóry a w skrajnych przypadkach może przyczyniać się do powstania nowotworów (np. bardzo niebezpiecznego czerniaka – melanoma malignum). Z uwagi, że zakres ultrafioletu jest duży, został podzielony na podzakresy. Z punktu widzenia działania światła na organizmy żywe wyróżnia się trzy UV-A, B i C.  Uszeregowane zostały wraz z malejącą długością fali elekromagnetycznej (a więc rosnącą energią: UV-C niesie znacznie większą dawkę energii niż UV-A). Czym większa energia tego promieniowania tym większy negatywny wpływ na nasze komórki. Promieniowanie w zakresie UV-C ma silny efekt mutagenny i zwiększa ryzyko zachorowania na nowotwory. Przeciwnie do niego UV-A jest stosunkowo mniej szkodliwy może jednak przyczyniać się do powstania zaćmy (Katarakta fotochemiczna) i właśnie starzenia skóry. UV-B jest głównym czynnikiem powodującym powstanie opalenizny – komórki skóry odkładają barwniki melaniny jako substancję ochronną przed nadmiernym wpływem promieniowania. Warto też zaznaczyć że umiarkowana ekspozycja na słońce jest korzystna dla zdrowia, sprzyja wydzielaniu witaminy D, serotoniny i poprawia ogólną kondycje organizmu.

Słowem kluczowym jest tutaj umiarkowanie – leżenie plackiem kilka godzin na plaży zdecydowanie nie jest umiarkowaniem. Podobnie praca na świeżym powietrzu bez odpowiedniej ochrony. Przebywając w pomieszczeniu (które zazwyczaj wyposażone jest w okna) jesteśmy w znacznie mniejszym stopniu narażeni na szkodliwe promieniowanie UV-B i UV-C bowiem zwykłe szkło okienne (tzw. sodowe) nie przepuszcza tych podzakresów promieniowania. Promieniowanie UV-A jest jednak zatrzymywane tylko w pewnym stopniu. Dlatego przebywając w nasłonecznionym pomieszczeniu unikniemy oparzeń słonecznych ale fotostarzenie skóry będzie postępować choć w mniejszym stopniu w porównaniu do przebywania na zewnątrz. Odbijanie się światła od ścian nie musi przyczyniać się do zwiększenia tego efektu bowiem wiele farb pochłania pewną część promieniowania UV (białość ściany oznacza że farba odbija widzialne promieniowanie). Dodatkowo okna w nowoczesnych budynkach zwłaszcza biurowych mogą być pokryte dodatkową warstwą blokującą promieniowanie UV. Takie szyby możemy również zamontować u siebie w domu czy mieszkaniu. O ile jednak nie mamy całej szklanej ściany od strony południowej takie postępowanie nie musi przyczynić się w znacznym stopniu do poprawy zdrowia naszej skóry.    

prof. dr hab. Robert Musioł
Dyrektor Instytutu Chemii
Uniwersytet Śląski w Katowicach

Uczenie się matematyki jest niezwykle istotne dla prawidłowego rozwoju. Dobra jakość edukacji matematycznej (na wszystkich etapach edukacyjnych) procentuje przez całe życie człowieka. Dotyczy to zarówno sytuacji związanych z uczeniem się, jak i sytuacji związanych z codziennym funkcjonowaniem w świecie. Rozwiązując wiele problemów dnia codziennego korzystamy przecież z umiejętności matematycznych – czasami nawet nie do końca zdając sobie z tego sprawę. Oczywiście dla dobrego funkcjonowania ważne są także inne umiejętności. Można do nich zaliczyć m.in. umiejętność czytania (szczególnie czytania ze zrozumieniem) czy pisania. Należyta edukacja, w tym należyta edukacja matematyczna jest zatem potrzebna – pytanie tylko co ona oznacza? Można ją rozważać zarówno z perspektywy ucznia, jak
i w kontekście odpowiednio zorganizowanego procesu nauczania. Z perspektywy ucznia ważne będzie to,  czy nie unika on uczenia się matematyki, czy uczy się jej w sposób prawidłowy, to znaczy chętnie, ze zrozumieniem, z dobrą motywacją do pracy, czy osiąga w tym zakresie sukcesy itp. Biorąc pod uwagę jakość procesu nauczania można wymienić na przykład odpowiednio zorganizowane środowisko szkolne, uwzględniające choćby dobre wyposażenie szkoły w pomoce naukowe. Ogromny wpływ na jakość edukacji ma oczywiście także sama osoba nauczyciela, jego podejście do uczniów, stosowane przez niego metody, techniki i formy pracy na lekcji a także podejście do nauczanego przedmiotu. W przypadku edukacji matematycznej osoba nauczyciela pełni bardzo ważna rolę, gdyż może zarazić uczniów pasją do tego przedmiotu lub też w skrajnych przypadkach zniechęcić ich do dalszego uczenia się.

Unikanie przez uczniów matematyki najczęściej wiąże się z brakiem sukcesów w uczeniu się tego przedmiotu. Brak powodzenia obniża motywację do pracy na lekcji. Jeśli taki stan trwa długo to najczęściej w miarę upływu czasu pogłębia się niechęć ucznia do matematyki. To czy dana osoba będzie miała sukcesy w uczeniu się matematyki, czy też będzie miała kłopoty w tym zakresie jest sprawą bardzo złożoną i indywidualną. Istnieje wiele przyczyn wykazywanych przez uczniów trudności w uczeniu się matematyki. W uczeniu się matematyki ważną rolę odgrywa intelekt ale nie tylko on decyduje o ewentualnym powodzeniu lub braku powodzenia w nabywaniu matematycznej wiedzy i umiejętności. Bardzo ważną rolę odgrywają tu emocje i to, czy osoba jest nastawiona do uczenia się matematyki w sposób pozytywny czy negatywny. Istotne są tutaj także pierwsze doświadczenia dziecka związane z matematyką – kluczowym okresem jest czas wychowania przedszkolnego i nauczania początkowego. Warto też pamiętać, że nie wszystkie trudności w uczeniu się matematyki to dyskalkulia. Jest ona jednym ale nie jedynym z powodów braku powodzenia w uczeniu się matematyki. Trudności w uczeniu się matematyki mogą bowiem wykazywać różni uczniowie – np.: uczniowie z dysleksją, uczniowie z inteligencją poniżej przeciętnej, uczniowie z niepełnosprawnością intelektualną czy uczniowie przejawiający lęk przed matematyką. W przypadku każdej z tych grup uczniów powód występowania trudności jest inny. Oczywiście trudności te mogą być też powodowane przez inne czynniki i mogą dotyczyć także innych uczniów, niż tych których wymieniłam powyżej. To bardzo złożone zjawisko.

Pytanie dotyczy związku między uczeniem się matematyki a poziomem intelektu. Nie można powiedzieć, że osoby, które nie lubią matematyki, czy też jej unikają nie są inteligentne. Podobnie nie można stwierdzić, że osobom, które nie mają sukcesów w uczeniu się matematyki brakuje inteligencji. Potencjał intelektualny jest zjawiskiem złożonym i wpływa na niego wiele czynników. W literaturze można się spotkać z wieloma definicjami, które próbują objaśnić to, czym tak naprawdę jest inteligencja. W zależności od wybranej definicji będą tam istotne różne aspekty. W stosowanych obecnie testach psychologicznych zdolności związane z matematyką są brane pod uwagę. Dla przykładu w teście Skala Inteligencji Stanford-Binet 5 (SB5), który jest powszechnie stosowany i który ocenia inteligencję oraz zdolności poznawcze osoby badanej, jednym ze sprawdzanych czynników jest tak zwane rozumowanie ilościowe. Rozumowanie ilościowe odnosi się do myślenia matematycznego, rozumienia pojęcia liczby naturalnej, umiejętności prawidłowego szacowania czy rozwiazywania zadań. Więc przy ocenie ogólnego potencjału intelektualnego osoby sprawdza się także to, w jaki sposób radzi sobie ona z problemami matematycznymi. Natomiast zdolności badanego w tym zakresie nie będę jako jedyne decydować o jego ogólnym poziomie intelektualnym, gdyż ten dotyczy szerszego zakresu. I tak we wspominanej baterii testów SB5 poza rozumowaniem ilościowym ocenia się także rozumowanie płynne, wiedzę, przetwarzanie wzrokowo-przestrzenne i pamięć roboczą.

Nie można zatem stosować takiego uproszczenia, że osoby które mają trudności z uczeniem się matematyki nie są inteligentne. Jako przykład można tu posłużyć się zjawiskiem dyskalkulii rozwojowej. Dyskalkulia powoduje ogromne trudności w uczeniu się matematyki oraz może powodować niechęć do tego przedmiotu i tym samym jego unikanie. Osoby z dyskalkulią nie są w stanie poradzić sobie nawet z łatwymi (z obiektywnego punktu widzenia) zadaniami czy problemami matematycznymi. Żeby jednak zdiagnozować u danej osoby dyskalkulię należy najpierw ocenić jej poziom intelektualny. W przypadku diagnozy dyskalkulii osoba musi być w normie intelektualnej, wiec jej poziom inteligencji nie może być niższy niż przeciętny. Zatem mimo prawidłowego poziomu intelektualnego osoby z dyskalkulią nie radzą sobie z uczeniem się matematyki. To tylko jeden z przykładów ale jest on dość obrazowy i świetnie pokazuje to, dlaczego nie można postawić znaku równości między trudnościami w uczeniu się matematyki czy niechęcią wobec niej a brakiem potencjału intelektualnego u danego człowieka. Wracając do należytej edukacji – odpowiednia jakość procesu edukacyjnego sprzyja rozwojowi intelektu, jednak nie warunkuje potencjału poznawczego danego człowieka.

 

 

Osoby zainteresowane tematem trudności w uczeniu się matematyki odsyłam do licznej literatury – polecam m.in.:

  1. Košč, Psychologia i patopsychologia zdolności matematycznych, Warszawa 1982.
  2. Skura, M. Lisicki, Gen liczby. Jak dzieci uczą sie matematyki. Warszawa 2018.
  3. Oszwa, Lęk przed matematyką. Poglądy. Badania. Rozwiązania, Lublin 2020.
  4. Landerl, L. Kaufmann, Dyskalkulia, Gdańsk 2015.
  5. Oszwa: Psychologiczna analiza procesów operowania liczbami u dzieci z trudnościami w matematyce, Lublin 2009.
  6. E. Gruszczyk-Kolczyńska, Dzieci ze specyficznymi trudnościami w uczeniu się matematyki, Warszawa 1997.
  7. U. Oszwa: Zaburzenia rozwoju umiejętności arytmetycznych: problem diagnozy i terapii, Kraków 2006.

dr Ewelina Kawiak
doktor nauk społecznych w dyscyplinie pedagogika
Uniwersytet Śląski w Katowicach

Przełomy technologiczne, których niewątpliwie jesteśmy świadkami nie zawsze wiążą się z likwidacją stanowiska pracy. Z mojej perspektywy jako socjologa jest to szansa na stworzenie nowych miejsc pracy. Oczywiście rozwiązania będą coraz bardziej zautomatyzowane. Jest to nieuniknione. Nie należy jednak podchodzić do tego z poważnymi obawami. Prace tego typu nie zawsze będą mogły zostać zastąpione przez automaty. Człowiek w wielu sytuacjach jest jednak niezbędny i taka praca nie zniknie całkowicie. Są to jednak prace, które są odpowiednie dla określonych grup, takich jak uczniowie czy studenci. To jednak naturalne, że obawiamy się nowości - w tym ich skutków w postaci ewentualnej utraty pracy. Tak działo się zawsze podczas rewolucji technologicznych.

Trudno powiedzieć, czy będzie przeprowadzona akcja promocyjna w kierunku podnoszenia kompetencji poprzez samodzielne podejmowanie decyzji o pobieraniu nauki w systemie akademickim bądź też policealnym dla personelu front-line. Kto miałby taką akcję przeprowadzać? Jak ona miałaby wyglądać? Czy byłaby to jakaś inicjatywa odgórna - centralnie sterowana? Czy władze w ogóle miałyby mieć coś z tym wspólnego? Czy być może jednak wiąże się to po prostu ze zmianą naszej społecznej mentalności? Sądzę, że realną alternatywą dla takiej akcji promocyjnej mogłoby być odpowiednie stanowisko przedsiębiorców w tej sprawie i to ich właśnie mentalność powinna zacząć szybko się zmieniać. Tak się już dzieje firmach, które są technologicznie odpowiedzialnie społecznie.

W naukach społecznych od jakiegoś czasu funkcjonuje pojęcie CDR czyli Corporate Digital Responsibility, bądź też być może częściej spotykane pojęcie Tech - life balance. Przedsiębiorstwa, które znają zasady tych podejść coraz częściej wprowadzają u siebie odpowiednie dokumenty/kodeksy etyczne, w których gwarantują troskę o produktywność czasu pracy pracowników, troskę o ich poczucie bezpieczeństwa cyfrowego, troskę o zapewnienie aktualności wiedzy i inne, podobne zagadnienia, które powodują, że pracownicy czują się bezpieczni pod względem swojego zatrudnienia i zachęceni do pogłębiania swoich kompetencji. Oczywiście mamy świadomość, że istnieją różnice w działaniach deklarowanych i tych rzeczywistych. To jest również powód, dla którego oprócz pracodawców w całą akcję powinny być włączone inne instytucje takie jak uniwersytety, ale także szkoły średnie, a nawet podstawowe.

Generalnie czas na „uczenie się przez całe życie” powinien być promowany różnymi kanałami. Ponad to podejmowanie decyzji na temat pobierania nauki na jakimkolwiek etapie zawsze może być skonsultowane w gronie najbliższych osób, a zatem również rodzina pełni tutaj bardzo ważną funkcję. Zagadnienie to jest dużo bardziej skomplikowane i wielowymiarowe szczególnie ze względu na dynamikę zachodzących zmian. Warto w tym względzie pogłębiać swoją wiedzę więc na początek mogę polecić bardzo przyjemną książkę „Świt robotów” Martina Forda, w której przedstawiono pewną wizję przyszłości, podano solidne argumenty i przykłady z zakresu biznesu czy gospodarki.

dr hab. Małgorzata Suchacka, prof. UŚ
Instytut Socjologii, Wydział Nauk Społecznych 

Dzis mamy do czynienia najczęściej z źródłami diodowymi lub co najmniej filtrowanymi tak aby odcinać nieporządane długości fali. światło czyli fala elektromagnetyczna może zostać podzielone na szereg zakresów według długości tejże fali. Tylko niektóre z tych długości są przez nasze oczy odbierane i ten zakres nazywamy światłem widzialnym. Jest ono najmniej szkodliwe pod warunkiem, że nie przekracza pewnych wartości natężenia, zwłaszcza przez dłuższy czas. W skórcie najlepszym sposobem na sprawdzenie będzie nasze samopoczucie - o ile nie przeszkadza nam nadmiar światła i nie czujemy zmęczenia po przebywaniu w takim pomieszczeniu wszystko jest w porządku. W krótkim czasie nawet duże natężenie światła ma niewielki wpływ na nasze zdrowie - np. lampa błyskowa w aparacie fotograticznym. Wyraźną szkodliwość wywołują fale krótsze niż zakres widzialny zwane ultrafioletem. Szczęśliwie dzisiejsze źródła światła wydzielają tego promieniowania niewiele o ile w ogóle. Wyjątkiem są np. lampy UV stosowane w kosmetyce (utwardzanie lakierów czy żeli na paznokciach) lub w stomatologii (utwardzanie wypełnień). Tam mamy do czynienia z emisją niemal wyłącznie w zakresie ultrafioletu (najczęściej też wybrane długości fal lub wąski zakres). Dlatego ważne jest zastosowanie środków ochrony oczu. Przykładowo lampy utwardzające u stomatologa mają często przymocowany kawałek pomarańczowego plastiku (filtr pozwalający operatorowi bezpiecznie obserwować końcówkę urządzenia). We wszystkich innych zastosowaniach (detekcja banknotów, lampy dezynfekcyjne) źródła promieniowania są raczej słabe i nie szkodzą o ile np. nie kierujemy ich w stronę oczu. W miejscu pracy zobowiązani jesteśmy do przestrzegania przepisów BHP. W życiu prywatnym warto na przykład ograniczyć (wyeliminować) wizyty w solarium, będącym w rzeczywistości wielką lampą UV. W literaturze naukowej można znaleźć opisy przypadków powstania nowotworów skóry u osób często korzystających z tych miejsc. 

prof. dr hab. Robert Musioł
Dyrektor Instytutu Chemii
Uniwersytet Śląski w Katowicach

Wstyd jest emocją, która, jak wiele z innych emocji pojawia się w odpowiedzi na sytuację zewnętrzną, w której człowiek się znalazł. W przypadku emocji negatywnych, takich, jak wstyd, można tę sytuację przyrównać do sytuacji stresowej, zmuszającej organizm do podjęcia jakiegoś działania, na podobnej zasadzie, jak reakcja "walcz lub uciekaj" - reakcja obronna. Gotowość organizmu do reakcji związana jest z przyspieszeniem niektórych procesów i zjawisk fizjologicznych, takich jak np. tętno, ciśnienie krwi czy częstość oddechów. Wymusza to na organizmie przyspieszenie metabolizmu. Jednym z produktów ubocznych metabolizmu jest ciepło, które musi być odprowadzone z organizmu na zewnątrz. Sposobem na to jest rozszerzenie naczyń krwionośnych w skórze tak, aby ogrzana krew z wnętrza ciała znalazła się bliżej jego powierzchni. Rozszerzone naczynia krwionośne na twarzy sprawiają wrażenie rumieńców, zwłaszcza, że skóra twarzy jest cieńsza niż innych obszarów ciała. 

dr hab. Agnieszka Babczyńska, prof. UŚ
Wydział Nauk Przyrodniczych
Uniwersytet Śląski

Z pewnością największe uszkodzenia komórek skóry występują w miejscach narażonych na promieniowanie UV. Widać to przede wszystkim po opaleniźnie, która jest swoistą ochroną wydzielaną przez pobudzone komórki. Opalenizna występuje tam gdzie była bezpośrednia ekspozycja. Jednak organizm jako całokształt zbudowany z różnych organów i komórek funkcjonuje jako całość właśnie. Stąd wiele urazów czy innych negatywnych czynników ma wpływ znacznie szerszy. W przypadku opalania może się zdarzyć, że nadmierna ekspozycja na słońce może prowadzić do wystąpienia gorączki, mdłości zawrotów głowy. Podobnie nowotwory skóry są najbardziej prawdopodobne w miejscach narażonych na oparzenia. Również inne urazy np. kontakt ze szkodliwymi substancjami, nawet podrażnienia fizyczne – częste otarcia mogą powodować nowotwory. Jednak możliwe jest ich wystąpienie w miejscach odległych od tych najbardziej narażonych. Dzieje się tak między innymi dlatego że silnie uszkodzone komórki rozpadając się wydzielają substancje działające jako sygnały alarmowe dla otaczających komórek, również tych nieobjętych uszkodzeniem. To one więc będą mogły zmienić się w ramach reakcji na owe sygnały.

Zdecydowanie jednak największy wpływ ogranicza się właśnie do miejsc bezpośrednio narażonych. Widać to na przykładzie wspomnianych wyżej nowotworów skóry. Nota bene są to najczęstsze nowotwory u ludzi – jednak ważna uwaga termin ten obejmuje wszystkie zmiany również te łagodne. Nie mam tu na myśli najbardziej popularnego czerniaka. Popularnego w naszej świadomości, bo na szczęście statystycznie ten bardzo niebezpieczny rak jest dość rzadki. Tak więc największa częstotliwość nowotworów skóry jest obserwowana w miejscach silnie nasłonecznionych np. Australia (duża populacja najbardziej narażonych przedstawicieli rasy białej) i obejmują one skórę ramion, głowy, twarzy, nóg u kobiet. Oczywiście nie oznacza to że można lekceważyć zmianę, która powstała w miejscu tak rzadko wystawianym na słońce jak przysłowiowe... okolice pasa. Bowiem w okolicach genitalnych nowotwory skóry też się zdarzają – najczęściej wywołane infekcją wirusową, bakteryjną lub właśnie powtarzającymi się urazami.

prof. dr hab. Robert Musioł
Dyrektor Instytutu Chemii
Uniwersytet Śląski w Katowicach

Komary pełnią kilka ważnych funkcji w ekosystemie, mimo że często są postrzegane jako szkodniki, zwłaszcza ze względu na ich zdolność do przenoszenia chorób na ludzi i zwierzęta. Oto kilka kluczowych ról, jakie komary odgrywają w ekosystemie:

-Pokarm dla innych organizmów: Komary, zarówno w stadium larwalnym, jak i dorosłym, stanowią ważne źródło pokarmu dla wielu gatunków zwierząt, takich jak ptaki, ryby, płazy, nietoperze i owady drapieżne (np. ważki). Larwy komarów, które rozwijają się w wodzie, są pożywieniem dla ryb i innych organizmów wodnych.

-Zapylanie roślin: Samice komarów żywią się krwią, ale samce komarów odżywiają się głównie nektarem roślin. W ten sposób przyczyniają się do zapylania roślin, choć ich rola jako zapylaczy nie jest tak znacząca jak u pszczół czy motyli.

-Kontrola populacji gatunków: Komary, będąc wektorem chorób, mogą wpływać na liczebność populacji innych organizmów. Przenosząc choroby na ludzi i zwierzęta, w naturalny sposób regulują populacje gatunków. Choć może to wydawać się okrutne z punktu widzenia ludzi, jest to element naturalnej regulacji liczebności w ekosystemie.

-Rozkład materii organicznej: Larwy komarów żywią się mikroorganizmami i rozkładającą się materią organiczną w wodzie. W ten sposób pomagają w rozkładzie martwych roślin i zwierząt, co przyczynia się do obiegu składników odżywczych w ekosystemach wodnych.

Choć mogą być uciążliwe i niebezpieczne ze względu na przenoszone choroby, ich rola w ekosystemie jest istotna, zwłaszcza jako element łańcucha pokarmowego.

dr Anna Dzionek 
Uniwersytet Śląski w Katowicach 
Wydział Nauk Przyrodniczych 

Pierwsze komputery kwantowe już działają. Nie jest to zatem kwestia dalekiej przyszłości, ale konsekwentnego ich rozwoju. Niestety ich możliwości są jeszcze stosunkowo niewielkie oraz problemy z nimi związane dość znaczące. Istnieją dwa podejścia. Jedno wykorzystuje bardzo niskie temperatury w celu uzyskania stanu tzw. splątania kwantowego oraz drugie wykorzystujące światło.

Praktyczne, dedykowane komputery kwantowe (tylko do konkretnego celu) o przewyższających zwykłe komputery możliwościach, udało się już stworzyć choćby Google do celu generowania liczb losowych - nie pseudolosowych, na co pozwalają klasyczne komputery, a prawdziwych losowych wartości.

Dziś możnaby porównać komputery kwantowe do pierwszych maszyn cyfrowych - są duże, o niewielkiej mocy obliczeniowej, jednak pochłaniające wiele przestrzeni i energii. To się na pewno zmieni. Klasyczne komputery do stanu dzisiejszego pod względem miniaturyzacji i zaawansowania potrzebowały już blisko stu lat rozwoju. Parametrem charakteryzującym przyszłe komputery kwantowe będzie coraz większa liczba splątanych kubitów. Będziemy to zapewne obserwować w najbliższych latach. Ale kiedy uda się splątać konkretną dużą ich liczbę? taką która przykładowo zagrozi rozszyfrowaniem współczesnych mechanizmów kryptografii? Tego nie wie nikt. Ponadto podkreślmy, że wraz z rozwojem komputerów kwantowych będą rozwijane nowe metody zabezpieczeń, dlatego nie powinniśmy mieć obaw co do przyszłości.

Komputery kwantowe odpowiedniej złożoności będą potrafiły modelować wiele zjawisk (np. fizycznych, chemicznych, pogodowych), dla których dzisiejsze komputery są zbyt słabe. Te klasyczne działają zupełnie inaczej. Na poziomie jednego układu obliczeniowego nie przetwarzają problemu "równolegle" tylko "krok po kroku" i w skończonej dokładności. 

dr inż. Przemysław Kudłacik
Wydział Nauk Ścisłych i Technicznych
Uniwersytet Śląski

To zależy... Świetne pytanie, na które wcale nie jest łatwo odpowiedzieć.

Generalnie są dwa źródła:
1. Matematycy biorą pomysły na nowe problemy od matematyków. Zastanawiają się w jaki sposób możemy uogólnić pewne wyniki, trochę zmienić założenia, itp. Co ciekawe, często po czasie okazuje się, że te nowe, ogólniejsze rezultaty mają zastosowanie w praktyce. Takie podejście można by nazwać teoretycznym.


2. Matematycy czerpią pomysły z innych dziedzin. A w zasadzie inne dyscypliny potrzebują matematyków, do rozwiązania swoich problemów. Oczywiście najłatwiej szukać takich powiązań w fizyce, czy chemii, ale aktualnie do zadań matematycznych sprowadzane są zagadnienia informatyczne, medyczne, ekologiczne, ekonomiczne (rynki finansowe, ubezpieczenia). Jest to najczęściej tzw. modelowanie matematyczne, czyli problem doświadczalne sprowadzany jest do równań i wtedy ktoś musi je rozwiązań - i do pracy wkraczają matematycy. Świetnie było widać ro podczas pandemii koronawirusa, zwłaszcza na jej początku, kiedy często w mediach mogliśmy spotkać różne modele rozprzestrzeniania się wirusa - czyli zestaw równań, który miał tę sytuację opisywać. Podobnie jest np. w prognozowaniu pogody. Najczęściej odbywa się to z wykorzystaniem modeli cyfrowych - czyli znów równań opisujących zmiany pogody. Najczęściej są one bardzo trudne do rozwiązania, czyli podania wzorów funkcji, które opisują rozwiązania. Jednak i tutaj pomaga matematyka (oraz rozwój informatyki), które dostarczają narzędzi informatycznych, które pozwalają znaleźć rozwiązania przybliżone. I tak najczęściej koło się toczy: rozwiązania poprzednich problemów powodują powstawanie nowych.
To drugie podejście nazwiemy praktycznym, związanym z zastosowaniem.

dr Łukasz Dawidowski 
Wydział Nauk Ścisłych i Technicznych
Uniwersytet Śląski w Katowicach

To prawda, utrzymywanie stałej pozycji ciała, czy nawet jego części  -np. rąk, jak w pytaniu, podczas określonego typu pracy związane jest napięciem mięśni. Napięty mięsień, w zależności od typu skurczu, w jakim się znajduje, powoduje ucisk na naczynia krwionośne. Jeśli ucisk jest stały, wówczas mięśnie pozostają w pewnym stanie niedokrwienia a przez to niedotlenienia i szybciej się męczą. Znacznie korzystniejsze jest wykonywanie takiej pracy, która pozwala na to aby naprzemiennie, lub od czasu do czasu, mięśnie mogły się rozluźnić. Wówczas krew może przepływać przez nie swobodnie, zapewniając dostawy tlenu, substancji odżywczych a odbierając zużyte produkty metabolizmu. Najlepszym sposobem zapobiegania niemiłym wrażeniom, które mogą po dłuższym czasie przerodzić się w problemy wymagające rehabilitacji lub innej interwencji medycznej, jest pozwalanie sobie na przerwanie pracy i rozluźnienie tych mięśni, który przez dłuższy czas pozostawały w napięciu lub wykonanie czynności, podczas których pracować będą inne mięśnie, lub nawet te same, jednak z możliwością naprzemiennego kurczenia i rozkurczania mięśni.

dr hab. Agnieszka Babczyńska, prof. UŚ
Wydział Nauk Przyrodniczych
Uniwersytet Śląski

Teoretycznie możliwe jest, aby cała ludzkość miała dostęp do żywności organicznej lub bogatej w konieczne mikro- i makroelementy, jednak istnieje wiele wyzwań i czynników, które to utrudniają. Aby to osiągnąć, trzeba by rozwiązać szereg problemów na poziomie ekonomicznym, politycznym, środowiskowym oraz technologicznym. Oto najważniejsze aspekty tego zagadnienia:

  • Zrównoważona produkcja żywności

Produkcja żywności organicznej i bogatej w składniki odżywcze na masową skalę wymagałaby zrównoważonych metod uprawy, które minimalizują użycie pestycydów, herbicydów oraz nawozów chemicznych (proszę mieć na uwadze ze produkcja żywności organicznej też dopuszcza stosowanie pestycydów oraz herbicydów, jednak muszą one być pochodzenia naturalnego). Takie metody są jednak często mniej wydajne niż rolnictwo intensywne, co może prowadzić do niższych plonów i wyższych cen.

  • Zasoby naturalne i ograniczenia środowiskowe

Produkcja organiczna wymaga większych zasobów ziemi, co może być problematyczne w kontekście ograniczonej powierzchni rolnej oraz rosnącej liczby ludności. Ponadto, zmiany klimatyczne mogą negatywnie wpływać na plony i dostępność zasobów wodnych.

  • Dostępność ekonomiczna

Obecnie żywność organiczna jest zazwyczaj droższa niż konwencjonalna, co może ograniczać dostępność dla osób o niższych dochodach. Produkcja na dużą skalę mogłaby potencjalnie obniżyć ceny, ale to wymagałoby zmiany całego systemu rolnictwa i handlu żywnością.

  • Technologia i innowacje

Nowoczesne technologie mogą odegrać kluczową rolę w dostarczaniu zdrowej i zbilansowanej żywności. Rozwój inżynierii genetycznej, hodowla roślin odpornych na choroby i susze oraz nowe metody przetwarzania żywności mogą umożliwić produkcję żywności bogatej w składniki odżywcze w zrównoważony sposób.

  • Globalna współpraca i sprawiedliwość społeczna

Dostęp do żywności bogatej w mikro- i makroelementy wiąże się także z globalnym systemem dystrybucji i sprawiedliwością społeczną. Nierówny podział zasobów, ubóstwo oraz konflikty zbrojne są głównymi barierami dla sprawiedliwego dostępu do zdrowej żywności.

  • Zmiany w konsumpcji

Zarówno ilość, jak i rodzaj spożywanej żywności mają ogromne znaczenie dla zdrowia i środowiska. W wielu krajach konsumuje się nadmierną ilość wysoko przetworzonej żywności, bogatej w cukry i tłuszcze, co prowadzi do problemów zdrowotnych.

Zglobalizowanie dostępu do żywności organicznej i bogatej w składniki odżywcze jest ogromnym wyzwaniem, ale nie jest niemożliwe. Wymaga to zrównoważonego rolnictwa, innowacji technologicznych, politycznych działań na poziomie globalnym oraz zmiany nawyków konsumpcyjnych. Aby to osiągnąć, konieczna jest ścisła współpraca między nauką, rządami, sektorem prywatnym i społeczeństwami.

dr Anna Dzionek 
Uniwersytet Śląski w Katowicach 
Wydział Nauk Przyrodniczych 

Systemy "przyjazne" dla środowiska istnieją od dawna. Praktycznie wszystkie nowsze systemy wykorzystują model dowodu stawki, który nie wymaga wykonywania skomplikowanych obliczeniowo zadań. Na ten model już dość dawno temu przeszła druga największa sieć, czyli Ethereum. Różne wersje dowodu stawki wykorzystuje większość dziś spotykanych systemów, a sieci takie jak Algorand, deklarują nawet ujemny wpływ na środowisko (pewnie wykupując odpowiednie ilości "zielonej" energii).

dr inż. Przemysław Kudłacik
Wydział Nauk Ścisłych i Technicznych
Uniwersytet Śląski

Zarysowania soczewek są częstym problemem. Ściereczki do czyszczenia okularów powinny być regularnie prane lub wymieniane na nowe aby zminimalizować ryzyko zarysowań. Na chwilę obecną miękkie ściereczki są najbezpieczniejsze dla delikatnych powłok soczewek okularowych.

 

dr hab. n med. Adrian Smędowski, prof. ŚUM Katedra Okulistyki
Klinika Okulistyki Wydział Nauk Medycznych w Katowicach
Śląski Uniwersytet Medyczny w Katowicach

Istnieją już roboty, które na różnym poziomie pomagają i to nie tylko w pracach kuchennych. Nie chodzi o proste automaty jak np. miksery, którego nota bene dość zaawansowanymi wersjami są popularne Thermomix'y lub "Lidlomix'y". Chodzi o pełen proces wykonania pożywienia, uwzględniający również zaawansowaną analizę obrazu - podobnie jak robi to człowiek. Tego typu maszyny już powstają. Robotyczne kuchnie już są projektowane oraz powstają różne wersje humanoidalnych robotów uniwersalnych (przypominających człowieka). To tylko kwestia czasu kiedy będzie można kupić tego tupu pomocnika. 

dr inż. Przemysław Kudłacik
Wydział Nauk Ścisłych i Technicznych
Uniwersytet Śląski

Poznanie i zrozumienie mechanizmów pamięci od lat jest przedmiotem intensywnych badań w neuronauce i psychologii. Na poziomie neurofizjologicznym powiedzieć można, że nośnikiem informacji w mózgu są połączenia między neuronami, zwane synapsami. W psychologii, jednym z pierwszych, na tym polu badawczym, był Donald Hebb, który zakładał, że uczenie się i pamięć opierają się na prostym procesie, w którym aktywowane jednocześnie neurony wzmacniają swoje powiązania.  W zgodzie z jego modelem, kiedy dwa neurony są aktywne w tym samym czasie, ich synapsa ulega wzmocnieniu, co zwiększa prawdopodobieństwo, że w przyszłości nastąpi aktywacja jednego neuronu przez drugi.

W odniesieniu do kluczowych procesów pamięciowych, jak kodowanie, przechowywanie i przetwarzanie, to w jaki sposób konkretne informacje są przechowywane i przetwarzane zależy od jakości komunikacji między neuronami. Przykładowo, podczas uczenia się nowych treści, neurony wykazujące jednoczesną aktywność, wzmacniają swoje powiązania. Zmiany w synapsach, ich wzmocnienie lub osłabienie są dalej kluczowe dla procesu zapamiętywania. Synapsy mogą być tu rozpatrywane analogicznie do „płytek” informacyjnych.

Jednym z głównych pytań z obszaru neuropsychologii pamięci jest pytanie o lokalizację pamięci w mózgu. Na chwilę obecną wiadomo, że funkcje pamięciowe umiejscowione są w różnych jego częściach. Na przykład hipokamp powiązany jest z konsolidacją informacji i tworzeniem wspomnień. Pomaga także w przetwarzaniu pamięci przestrzennej. Z kolei kora mózgu wiąże się przechowywaniem trwałych wspomnień i reprezentacji semantycznych. Ciało migdałowate natomiast odgrywa istotną rolę w pamięci emocjonalnej. Warto pamiętać, że funkcje poznawcze, w tym pamięć, nie są ściśle zlokalizowane w mózgu, nie są też w nim dowolnie rozproszone. Zależą natomiast od złożonej, a za razem wyspecjalizowanej sieci obszarów mózgu, które ze sobą współgrają.

dr hab. Katarzyna Ślebarska, prof. UŚ 
Dyrektor Instytutu Psychologii 
Wydział Nauk Społecznych, Uniwersytet Śląski w Katowicach 

Jest to jedno z tych prostych pytań, na które nie ma prostej odpowiedzi, a może nie ma odpowiedzi w ogóle. Może rację miał Jean Jacques Rousseau, który uważał, że dawni ludzie, żyjący w stanie naturalnym, komunikowali się za pomocą intonacji, westchnień, okrzyków – za pomocą dźwięków, które miały charakter tyleż muzyczny, co językowy? I że później, w miarę jak język stawał się coraz bardziej suchy i abstrakcyjny, z tej pierwotnej melopei wyodrębniła się muzyka, która zachowała czysto emocjonalny aspekt pierwotnego systemu komunikacji? A może do prawdy zbliżył się Karol Darwin, który uważał, że źródłem muzyki jest biologiczna strategia uwodzenia, czyli śpiew ptaków? A może trzeba uznać argumenty marksistów, którzy sądzili, że muzyka służyła celom praktycznym, takim jak rytmiczna organizacja pracy, w tym także pracy niewolniczej? A może przekonają nas raczej religioznawcy podkreślający rytualno-magiczne początki muzyki? Pytania się mnożą a pewnej odpowiedzi nie widać. A może po prostu szukamy jej nie tam, gdzie trzeba? Bo może najlepszą sugestię podsunął Adam Mickiewicz: „Miej serce i patrzaj w serce”.       

prof. Marcina Trzęsioka
Akademia Muzyczna im. Karola Szymanowskiego w Katowicach 

Pytania, te nie należą do prostych w odpowiedzi. O wiele prościej byłoby próbować wydatować konkretny przedmiot, oczywiście pod warunkiem istnienia możliwości ustalenia jego chronologii. Wszystko zależy od przedmiotu. Pewne rodzaje przedmiotów używane były w określonym czasie – wówczas sprawa jest oczywista. Często ważny jest surowiec, z którego wykonano przedmiot – jasnym jest, że kamienna siekiera wykonana przez gładzenie nie będzie pochodzić z czasów, gdy do wyrobu siekier używano metalu.

Pewne rodzaje przedmiotów charakteryzują się jakimiś szczególnymi cechami czy stylem wykonania. Wystarczy ułożyć je w ciągi rozwojowe. Przykładem mogą być używane przez wiele wieków zapinki do odzieży (zwane fibulami) – taki odpowiednik naszych agrafek, stosowany w czasach gdy nie znano guzików. Bogato zdobione, o określonym kształcie są obecnie znakomitym wyznacznikiem chronologii obiektów, w których wystąpiły. Podobnie możemy dzięki wieloletnim badaniom i obserwacjom traktować pewne rodzaje przedmiotów jako tzw. datowniki. Przykładowo, jeśli znajdujemy ostrogę o ruchomym bodźcu w kształcie gwiazdki (takie jakie znamy np. z westernów) wówczas możemy określić, że powstała ona mniej więcej po połowie XIII wieku, gdyż dopiero wówczas zaczęto je stosować.

Do określenia czasu powstania przedmiotu można stosować także metody wypracowane przez nauki fizyko-chemiczne. Jeśli przedmiot wykonane jest z drewna, można zastosować metodę węgla C14. Podobnie można datować przedmioty wykonane z kości czy poroża. Czasami wystarczy określić skład chemiczny surowca. Tak jak w przypadku sprawdzenia autentyczności obrazu – jeśli użyto farb o składzie, którego nie stosowano w epoce, wówczas możemy podejrzewać, czy nawet być pewni fałszerstwa. Wszystko zależy od przedmiotu...

prof. dr hab. Piotr Boroń
Wydział Humanistyczny
Uniwersytet Śląski w Katowicach 

Pszczoły istnieją od 128 milionów lat (według współczesnej wiedzy), dłużej niż ogromna liczba innych żyjących obecnie na Ziemi zwierząt. Dzięki ich niezwykłemu powiązaniu z roślinami nauczyły się tak jak ludzie wykorzystywać dobra przyrody dla własnych potrzeb, chociażby do obrony przed chorobami, czy jako źródła pokarmu. Życie pszczół będzie więc zależne od tego czy będą istnieć potrzebne im rośliny, to z kolei zależy po części od nas wszystkich. Zmiany klimatyczne, zanik miejsc z dzika przyrodą, czy zanieczyszczenie środowiska to zagrożenia, które mogą doprowadzić do ich wyginięcia. Dlatego dbając chcąc dbać o pszczoły musimy przede wszystkim dbać o środowisko.

dr Łukasz Nicewicz
Wydział Nauk Przyrodniczych Insytut Biologii, Biotechnologii i Ochrony Środowiska 
Uniwersytet Śląski w Katowicach 

Zagadnienie prewencji i leczenia ślepoty jest bardzo złożone. Ślepota jest jednym z poważniejszych problemów zdrowotnych na świecie, dotykającym miliony ludzi. Światowa Organizacja Zdrowia (WHO) szacuje, że około 2,2 miliarda ludzi na całym świecie ma problemy ze wzrokiem, z czego co najmniej miliard przypadków mogłoby być zapobieganych lub leczonych. Około 36 milionów osób jest całkowicie niewidomych, a 217 milionów cierpi na umiarkowane lub ciężkie osłabienie wzroku. Najczęstszymi przyczynami ślepoty są:

- Zaćma, związana ze zmętnieniem soczewki oka, jest główną przyczyną odwracalnej ślepoty, zwłaszcza w krajach o niskich i średnich dochodach. Jej leczenie obecnie znajduje się na bardzo wysokim poziomie, a operacja zaćmy jest jedną z najczęściej wykonywanych zabiegów operacyjnych na świecie. Aktualnie okulistyka dysponuje bardzo zaawansowanymi technologiami – soczewkami wewnątrzgałkowymi, którymi zastępowana jest własna zmętniała soczewka. Soczewki te umożliwiają przywrócenie wyraźnego widzenia.

- Jaskra, choroba, która prowadzi do uszkodzenia nerwu wzrokowego i może prowadzić do trwałej utraty wzroku. Jest najczęstszą przyczyną nieodwracalnej ślepoty na świecie. Utrata widzenia w jaskrze jest trwała, a obecna medycyna nie zna skutecznych metod, aby odwrócić uszkodzenia wzroku w przebiegu jaskry. Istnieje jednak bardzo wiele metod, które rozwijają się bardzo dynamicznie, dając nadzieję na poprawę wzroku pacjentów z jaskrą, np. metody elektrostymulacji nerwu wzrokowego, terapie genowe, czy modyfikowane terapie komórkowe.

- Choroby siatkówki, w tym zwyrodnienie plamki siatkówki związane z wiekiem (AMD), retinopatia cukrzycowa oraz schorzenia naczyniowe siatkówki. Reprezentują one powikłania chorób cywilizacyjnych, cukrzycy, nadciśnienia tętniczego oraz są związane z globalnym starzeniem się społeczeństwa. W chwili obecnej istnieje wiele metod umożliwiających poprawę widzenia u tych pacjentów, a najpowszechniejszą metodą są iniekcje preparatów hamujących wzrost naczyń, tzw. anty-VEGF.

- Stożek rogówki i inne schorzenia rogówki oka. Te grupy chorób mogą być zapobiegane i leczone w różnoraki sposób. Przełomem w terapii stożka rogówki jest metoda sieciowania włókien kolagenowych promieniowaniem ultrafioletowym w obecności ryboflawiny (tzw. zabieg cross-linking), co w znaczącym stopniu ograniczyło występowanie ślepoty związanej z tą chorobą. Rozwijają się również metody przeszczepów rogówki oka, włączając w to metody przeszczepiania sztucznej rogówki – tzw. Keratoprotezy, która umożliwia powrót widzenia u osób niewidzących z powodu chorób rogówki oka.

- Infekcje oczu – w niektórych częściach świata, zwłaszcza w krajach rozwijających się, infekcje takie jak jaglica mogą prowadzić do ślepoty.

Problem ślepoty jest złożony, ale istnieją znaczące możliwości poprawy poprzez lepszy dostęp do opieki zdrowotnej oraz edukację społeczeństwa na temat profilaktyki i leczenia problemów ze wzrokiem.

W perspektywie czasu, istnieją obiecujące metody, które w przyszłości mogą umożliwić przywracanie wzroku osobom dotychczas niewidomym, ich rozwój i wdrożenie wymaga jednak długiego okresu testowania oraz dużych nakładów finansowych.

dr hab. n med. Adrian Smędowski, prof. ŚUM Katedra Okulistyki
Klinika Okulistyki Wydział Nauk Medycznych w Katowicach
Śląski Uniwersytet Medyczny w Katowicach

Z całą pewnością włożenie okularów do zmywarki doprowadziłoby do uszkodzenia okularów, zarówno soczewek, ich powłok jak i oprawek. Istnieją na rynku dedykowane okularom mini urządzenia wykorzystujące ultradźwięki (swoiste mini myjki ultradźwiękowe) do czyszczenia okularów. Jednak najbezpieczniejszą metodą jest delikatny detergent, ręczne mycie i polerowanie dedykowaną ściereczką.

 

dr hab. n med. Adrian Smędowski, prof. ŚUM Katedra Okulistyki
Klinika Okulistyki Wydział Nauk Medycznych w Katowicach
Śląski Uniwersytet Medyczny w Katowicach

Informacje o składzie powietrza w Katowicach można znaleźć na stronie internetowej Głównego Inspektoratu Ochrony Środowiska (GIOŚ). Dzięki sieci stacji pomiarowych, GIOŚ monitoruje w czasie rzeczywistym poziomy zanieczyszczeń, takich jak pyły PM10 i PM2,5 oraz stężenia szkodliwych gazów, na przykład tlenków azotu czy dwutlenku siarki. Stacje wyposażone są w certyfikowane urządzenia, co zapewnia wiarygodność i dokładność wykonywanych pomiarów. Aktualne wyniki są dostępne na portalu Jakość Powietrza (https://powietrze.gios.gov.pl/), gdzie można łatwo sprawdzić stan powietrza w Katowicach i innych miastach Polski. Jest to obecnie jedno z najlepszych źródeł informacji o jakości powietrza w Polsce.

Dostępne na rynku są też przenośne, kompaktowe mierniki jakości powietrza, które umożliwiają monitorowanie stężenia pyłów zawieszonych oraz niektórych gazów przez indywidualnego użytkownika w dowolnym miejscu. Urządzenia te pozwalają na uzyskanie orientacyjnych wyników w czasie rzeczywistym, jednak ich dokładność i precyzja są zwykle niższe niż w przypadku certyfikowanych urządzeń pomiarowych. W związku z tym sprawdzają się one głównie do użytku osobistego lub ogólnej oceny jakości powietrza.

Odpowiedzi na tą część pytania udzieliła: dr Anna Abramowicz

 

W pytaniu nie zostało sprecyzowane o jaką wodę chodzi: czy ma być to badanie wody powierzchniowej (rzeki, stawy, źródła) czy podziemnej (studnie) w celu ogólnej orientacji o stanie środowiska czy też o wodę pitną np. z własnego kranu. Dlatego odpowiedź podzielę na dwa fragmenty.

W pierwszym przypadku informacje o wodach badanych w ramach państwowego monitoringu środowiska również znajdują się na stronie internetowej GIOŚ (Monitoring wód - Główny Inspektorat Ochrony Środowiska - Portal Gov.pl). Choć sieć monitoringu obejmuje cały kraj (również Bałtyk i osady denne) to można nie znaleźć tam informacji dotyczących jakiegoś lokalnego problemu (np. jakości wody w konkretnym cieku). Jeżeli interesuje nas jakość wody w skali lokalnej można pobrać próbkę (lub zlecić jej pobranie co jest rozwiązaniem lepszym, bo pobór zostanie wykonany fachowo) i analizę chemiczną. Poborem i analizami zajmują się wyspecjalizowane laboratoria chemiczne; z regionu górnośląskiego mogę wymienić np. OBiKŚ w Katowicach, oddział GBA Polska sp. z o.o. w Mysłowicach, laboratorium SGS Polska w Pszczynie czy wiele podobnych. Ważne jest aby było to laboratorium akredytowane. Koszt analizy, w zależności od jej zakresu może wynosić od ok. 250 zł do ok. 350 zł. Ustalenie zakresu analizy najlepiej powierzyć specjaliście z laboratorium, po przedstawieniu mu celu do jakiego ma służyć ta analiza.

W drugim przypadku kontrola wody pitnej płynącej w naszych kranach jest dokonywana wieloetapowo. Zarządca nieruchomości, w której mieszkamy musi podpisać umowę na dostawę wody z lokalnym dostawcą. Z reguły są nimi miejskie lub gminne przedsiębiorstwa komunalne, czasem wyspecjalizowane przedsiębiorstwa wodociągowe. Jeżeli więc mieszkamy np. w zasobach spółdzielni mieszkaniowej to jej obowiązkiem jest podpisanie takiej umowy. Dostawca wody pitnej umawia się ze spółdzielnią, w którym miejscu sieć rozdzielcza spółdzielni będzie podłączona do sieci dostawcy i w tym punkcie z reguły znajduje się również punkt poboru wody do badań kontrolnych. Jeżeli są zastrzeżenia co do jakości wody to próbka pobrana w tym punkcie rozstrzyga czy winny słabej jakości wody jest dostawca czy spółdzielnia. Należy bowiem pamiętać, że czasem niewłaściwa jakość wody w moim kranie wynika np. z braku odpowiedniej dbałości o stan wewnętrznej sieci wodociągowej spółdzielni, a czasem jest to wina instalacji w moim mieszkaniu (np. stare żeliwne rury, w których osadziły się związki żelaza). Ponadto dostawca wody bada ją co najmniej dwukrotnie: w miejscu poboru wody ze środowiska (tzw. woda surowa) oraz po przejściu całego procesu uzdatniania, przed wtłoczeniem do własnej sieci przesyłowej (tzw. woda uzdatniona).

Oczywiście, jeśli sami jesteśmy zarządcą nieruchomości, w której mieszkamy i mamy podpisaną umowę z dostawcą wody to odpowiada on za jakość wody do głównego licznika. W prawidłowo wykonanej instalacji wodociągowej, zaraz za tym licznikiem powinien znajdować się kurek, z którego możemy pobrać próbkę do badań.

Na koniec warto dodać, że jakość wody w naszych kranach powinna odpowiadać wymaganiom zapisanym w Rozporządzeniu  Ministra Zdrowia  z dnia 7 grudnia 2017 r.  w sprawie jakości wody przeznaczonej do spożycia przez ludzi zamieszczonym w Dzienniku Ustaw 2017 poz. 2294.

Odpowiedzi udzielił: dr Piotr Siwek

dr Anna Abramowicz,
specjalistka od badań jakości powietrza na Wydziale Nauk Przyrodniczych
Uniwersytet Śląski w Katowicach

oraz

dr Piotr Siwek
Uniwersytet Śląski w Katowicach
Wydział Nauk Przyrodniczych
Instytut Nauk o Ziemi

Zdolność psów do rozróżniania różnych kolorów pozostaje kwestią sporną. Ludzie mają trzy rodzaje czopków: długofalowe (czerwone), średniofalowe (zielone) i krótkofalowe (niebieskie), z maksymalną czułością widmową odpowiednio przy 558 nm, 531 nm i 419 nm. Psy mają tylko dwa ich typy, które odpowiadają czułościom na krótkie i długie fale (niebieskie przy szczycie widmowym 555 nm i żółte przy 429 nm). Na tej podstawie sugeruje się, że psy mogą nie dostrzegać różnic między kolorem zielonym, żółtym i czerwonym. Niektóre dowody wskazują jednak, że psy mogą być zdolne do rozróżniania tych kolorów (np. czerwonego i zielonego), nawet pomimo braku odpowiednich czopków, które uważa się za odpowiedzialne za tę zdolność. Dodatkowo psy mogą mieć zdolność do percepcji światła ultrafioletowego, bowiem  ich soczewki przepuszczają znaczną ilość promieni UV (335 nm). Sugeruje to, że chociaż psy nie mają specyficznego pigmentu dla widzenia UV, mogą być wrażliwe na światło ultrafioletowe. Więcej danych na temat widzenia u psów można znaleźć w artykułach:

Byosiere, SE., Chouinard, P.A., Howell, T.J. et al. What do dogs (Canis familiaris) see? A review of vision in dogs and implications for cognition research. Psychon Bull Rev 25, 1798–1813 (2018). https://doi.org/10.3758/s13423-017-1404-7  

Neitz, Jay & Geist, Timothy & Jacobs, Gerald. Color vision in dog. Visual neuroscience. 3. 119-25. (1989). https://doi.org/10.1017/S0952523800004430.

dr hab. Grażyna Wilczek, prof. UŚ
Wydział Nauk Przyrodniczych 
Uniwersytet Śląski w Katowicach 

Embriolodzy uważają, że jako pierwsze powstało jajo. Po pierwsze, jajo jest komórką, a w toku ewolucji pierwsze powstały komórki, później tkanki i organizmy wielokomórkowe. Służyły, jak i nadal służą licznym zwierzętom zarówno bezkręgowym, jak i kręgowym do rozmnażania. Pierwsze jaja w skorupkach pojawiły się ponad 300 milionów lat temu, pierwsze ptaki po kolejnych 150 milionach lat, a kura jako gatunek około 50 milionów lat temu. Skorupka pojawiła się również w toku ewolucji, stanowiąc ochronę dla rozwijającego się w niej zarodka. Jednakże badania paleontologów wskazują, że najstarsze gady i ptaki nie składały jaj, a rodziły swe młode. Chronione były w jej organizmie, a poród mógł być nawet opóźniany. Nawet dzisiejsze niektóre gatunki gadów mogą być i jajorodne i żyworodne. Tak więc opierając się na tych doniesieniach, można stwierdzić, że pierwsza byłą kura.

prof. dr hab. Magdalena Rost-Roszkowska 
Wydział Nauk Przyrodniczych 
Uniwersytet Śląski w Katowicach 

Sen jest nieodłączną częścią ludzkiego życia, jest fascynującym, nie do końca zbadanym procesem, od wieków  budzącym zainteresowanie naukowców. Sen stanowi odmienną organizację aktywności neuronalnej, która obejmuje praktycznie wszystkie regiony mózgu, głównie korę mózgową, hipokamp, wzgórze, podwzgórze i okolice pnia mózgu.

Dla zrozumienia wzajemnych interakcji sen- pamięć należy przypomnieć architektonikę snu.  We śnie wyróżniamy dwie główne fazy:

  1. Sen NREM (non-rapid eye movement, sen wolnofalowy) stanowi 75-80% snu, w  fazie tej wyróżnia się 4 stadia:
    • stadium 1, w którym świadomość bodźców docierających ze środowiska stopniowo maleje, pojawiają się wolne ruchy gałek ocznych, w zapisie EEG znikają fale alfa, a dominują fale wolne theta z czasem nałożoną niskonapięciową czynnością szybką beta (odpowiada zasypianiu)
    • stadium 2 z brakiem reakcji na bodźce zewnętrzne ( towarzyszy zmiana temperatury ciała, rytmu oddechu i akcji serca) oraz występowaniem wrzecion snuzespołów K w zapisie EEG (tzw. lekki sen)
    • stadium 3, w którym podczas badania polisomnograficznego czy w badaniu EEGw badanym i ocenianym odcinku czasu 20–50%  stanowią fale delta o amplitudzie nie mniejszej niż 75μV (tzw. sen głęboki- początek)
    • stadium 4, zawierające ponad 50% fal wolnych delta o amplitudzie powyżej 75μV (tzw. sen głęboki)

      2. Sen REM (rapid eye movement, sen paradoksalny) – zbliżony do stanu czuwania.  W tej fazie występują najczęściej marzenia senne.

Sen zaczyna się fazą NREM, prawidłowo o czasie trwania 80-100 min, po której następuje faza snu REM trwająca ok. 15 min. Wraz z wiekiem zmienia się też struktura snu: stadium 1. snu NREM ulega wydłużeniu (do 15% w porównaniu z 5% w wieku dziecięcym), natomiast stadia 3. i 4. ulegają skróceniu.

Badania wskazują, że sen w fazie REM (Rapid Eye Movement) ma wpływ na procesy uczenia się, zapamiętywania, regulację zachowań emocjonalnych. W 1904r niemiecki biolog i zoolog Richard Semon sformułował definicję engramu. Engram, zwany również śladem pamięciowym, stanowi teoretyczny zapis informacji w mózgu. Jest to sposób, w jaki nasze wspomnienia są kodowane, przechowywane i odtwarzane w różnych strukturach mózgu. Istnieją różne rodzaje pamięci, a każdy z nich ma swoje engramy. Pamięć sensoryczna, krótkotrwała i długotrwała mają różne mechanizmy kodowania i przechowywania wspomnień, co oznacza, że mogą tworzyć swoje własne engramy.

Pamięć, w najszerszym znaczeniu, jest informacją przechowywaną przez dłuższy okres czasu. W mózgu sieci neuronów i komórek glejowych kodują informacje z doświadczonego epizodu zarejestrowanego przez narządy zmysłów w pewne „reprezentacje”, które są częściowo utrzymywane jako pamięć długoterminowa w celu regulowania przyszłych zachowań w podobnych okolicznościach. Ogólnie przyjmuje się, że świeżo zakodowane engramy pamięci szybko zanikają, chyba że zostaną skonsolidowane. Ten proces stabilizacji obejmuje wiele struktur mózgu, takich jak hipokamp, kora mózgowa i ciało migdałowate, odbywa się jako konsolidacja synaptyczna (zmiany w połączeniach między neuronami, zwanych synapsami, oraz zmiany w ekspresji genów i białek w komórkach nerwowych) poprzez lokalne wzmocnienie połączeń synaptycznych między neuronami, reorganizację podłoża neuronalnego i potencjalnie jego jakościową transformację.

Wiadomo, że sen wspiera tworzenie pamięci długotrwałej, odkąd pierwsze dowody eksperymentalne zostały dostarczone około sto lat temu. Od tego czasu liczne badania wykazały, iż w porównaniu ze stanem czuwania, sen po zakodowaniu bodźców eksperymentalnych, wytwarza bardziej długotrwałe i stabilne wspomnienia. Istnieją również doniesienia, które przynoszą odmienne informacje i podkreślają rolę czuwania w procesie konsolidacji pamięci, dlatego temat ten na pewno wymaga jeszcze kolejnych badań.

Jednym z ciekawszych badań prowadzonych w zakresie oceny wpływu  snu na procesy pamięciowe było badanie z Cornwell University, w którym głównym punktem zainteresowania był obszarze mózgu odpowiedzialnym za kształtowanie pamięci długotrwałej a zatem hipokamp. Hipokamp można podzielić na 3 regiony – CA1, CA2 oraz CA3. Obszary CA1 i CA3 odpowiadają za kodowanie wspomnień związanych z czasem i przestrzenią. Przedmiotem badania było funkcjonowanie regionu C2, o którym wiadomo najmniej. Badania eksperymentalne wykazały, że w czasie snu regiony CA1 i CA3, które są aktywne w trakcie nauki, ulegają wyciszeniu, co pozwala na resetowanie pamięci. Proces ten jest generowany przez region CA2, co umożliwia mózgowi dalszą naukę bez angażowania wszystkich dostępnych neuronów.  

Pomimo postępu neurofizjologii, jaki obserwujemy, nadal wiele kwestii oczekuje na wyjaśnienie, np. dotyczących lokalizacji engramów (czy faktycznie są przechowywane w wielu obszarach mózgu, w zależności od rodzaju pamięci), mechanizmów synaptycznych leżących u podstaw przechowywania reprezentacji wspomnień w obwodach korowych oraz korzyści z pamięci zależnej od snu podczas wczesnego rozwoju (dlaczego te informacje są zachowane, a nawet ’silniejsze niż w dojrzałym mózgu, pomimo wyraźnych oznak funkcjonalnej i strukturalnej niedojrzałości systemu pamięci hipokampa w tym wieku).

 

Prof. dr hab. n. med. Justyna Paprocka  
Katedra i Klinika Neurologii Dziecięcej,

Wydział Nauk Medycznych w Katowicach,
Śląski Uniwersytet Medyczny

Z tego co wiem to nie ma jednej, powszechnie akceptowanej teorii na ten temat. Płacz emocjonalny, w przeciwieństwie do  łez bazowych, czy odruchowych, jest wyjątkowy dla człowieka. Próbując wyjaśnić to zjawisko, naukowcy najczęściej opierają się na opisie funkcji jakie pełni płacz emocjonalny na poziomie fizjologicznym, psychologicznym i społecznym.

Najprawdopodobniej  płacz emocjonalny wyewoluował z dźwięków, które wydają zwierzęta, gdy są oddzielone od matki. Dźwięki te zwracają uwagę rodziców i zwiększają prawdopodobieństwo uzyskania opieki przez dziecko. U ludzi płacz przekształcił się w wyrazisty (wizualny i słuchowy) sygnał emocjonalny, który działa skuteczniej niż sam krzyk. Płacz jako reakcja na smutek pełni właśnie taką rolę. Wzmacnia relacje społeczne i zachęca do udzielenia wsparcia. Jest to wyjątkowo ważne dla dzieci, szczególnie tych, które jeszcze nie komunikują się werbalnie. W ten sposób przywołują opiekunów, nieprecyzyjnie sygnalizują dyskomfort, potrzeby. Zasadniczo, jeśli nie trafili akurat na bardzo zaburzonych opiekunów, to zwiększają szanse na uzyskanie adekwatnej opieki i budowanie poczucia bezpieczeństwa. Względem osób dorosłych widok łez także często wywołuje empatię i chęć udzielenia pomocy, co wzmacnia więzi społeczne. Jednak reakcja ta jest nieco subtelniejsza, mniej automatyczna niż w stosunku do dzieci. Z perspektywy psychologicznej płacz emocjonalny działa jako mechanizm regulacji emocji i umożliwia wyrażanie takich uczuć jak smutek, frustracja, czy wzruszenie.  Kiedy płaczemy zwiększamy szansę, że ktoś się nami zainteresuje, pomoże, zapewni bezpieczeństwo itp. Dodatkową zaletą płaczu jest łączenie go ze szczerością. Gdy ktoś płacze zazwyczaj sprawia wyrażenie szczerego, otwartego, bezbronnego. To jeszcze bardziej zwiększa szanse na otrzymanie pomocy. Samo uczucie ulgi po płaczu zależy od reakcji otoczenia – pozytywne odpowiedzi od innych mogą wzmacniać odczuwany efekt "oczyszczenia". W przypadku izolacji płacz może pełnić funkcję wewnętrznego wyrażenia emocji, pozwalając oswoić się ze swoimi uczuciami, trudną sytuacją. Psychologicznie może to wspierać proces adaptacji do trudnych sytuacji życiowych i umożliwiać przetwarzanie smutku. Łzy emocjonalne różnią się nie tylko rolą, ale i składem biochemicznym od łez podstawowych (odpowiedzialnych za nawilżanie i oczyszczanie oczu, stale produkowanych). Płacz emocjonalny uwalnia związki biochemiczne takie jak kortyzol, oksytocyna i endorfiny. Może to działać łagodząco, pomagać uzyskać uczucie psychicznej ulgi, niwelować dystres. Niektóre neuroprzekaźniki (np. oksytocyna) dodatkowo pomagają w budowaniu poczucie przywiązania i więzi społecznych.

Podsumowując najważniejsza rolą płaczu emocjonalnego (także tego kiedy jesteśmy smutni) jest wysyłanie sygnałów dla innych ludzi zwiększających szansę na wsparcie społeczne, regulacja emocji, stopniowe oswajanie się z nimi oraz doświadczanie uczucia ulgi.

dr n. o zdrowiu Julia Wyszomirska
Katedra Nauk Społecznych i Humanistycznych - Zakład Psychologii
Wydział Nauk o Zdrowiu w Katowicach ŚUM

 

Stres jest naturalną reakcją organizmu na sytuacje, które spostrzegamy jako trudne wymagajcie szczególnej uwagi, mobilizacji sił, zasobów. Mimo, że stres może być dla nas nieprzyjemny, to z pespektywy ewolucji, a także psychologii pełni wiele użytecznych funkcji adaptacyjnych. Od bezpośredniego zwiększania szans na przeżycie, po lepsze planowanie i zabezpieczanie własnej przyszłości, czy podstawowe mobilizowanie do działania mimo, że sukces nie jest pewien.  W odniesieniu do rodzajów stresorów najczęściej wyróżnia się sytuacje zagrożenia, wyzwania albo straty. Każda z nich wymaga nieco innego podejścia, by sobie z nią efektywnie poradzić lub przetrwać. Wiadomo, że te same sytuacje nie są tak samo stresujące dla wszystkich osób. Skąd się biorą takie różnice? Najbardziej powszechna definicja w psychologii traktuje stres jako szczególny rodzaj relacji między osobą  a otoczeniem, który jest oceniany przez tę osobę jako przekraczający jej zasoby i zagrażający jej dobrostanowi. W tej koncepcji nie neguje się znaczenia czynników biologicznych, czy stałych cech osób, ale szczególną rolę nabiera subiektywna ocena sytuacji i własnych możliwości. To ona zasadniczo będzie wpływała na to czy i jakie nasilenie oraz charter stresu odczujemy oraz co dalej z tym zrobimy. W reakcji na nagłe zdarzenie doświadczamy silnej, galopującej automatycznej reakcji fizjologicznej, szczególnie aktywacji współczulnego układu nerwowego i wyrzutu tzw. hormonów stresu, szczególnie adrenaliny. Towarzyszą temu wyraźne odczucia cielesne np. uczucie zalewania ciepłem, przyspieszona akcja serca, które trudno przegapić. W takich okolicznościach zazwyczaj jesteśmy bardzo czujni, ale uwaga jest zogniskowana na określone bodźce, a siły i funkcje organizmu przekierowane są na „tu i teraz”. Nasza reakcja najczęściej jest automatyczna „walcz lub uciekaj” i względnie krótkotrwała. Jednak w przeciwieństwie do innych zwierząt, ludzki stres najczęściej ma charter przewlekły. Często nie ustępuje mimo, że stresora już nie ma, dodatkowo może być aktywowany przez myśli, wspomnienia, skojarzenia. Może stale się tlić w odpowiedzi na sytuacje stałe, nieustępujące stresory  - nieprzyjemne, ale bezpośrednio nie zagrażające naszemu życiu, bezpieczeństwu. Przykładami mogą być chroniczne problemy zawodowe, finansowe czy długotrwałe konflikty interpersonalne. Może wynikać z wyobrażeń o przyszłości, przewidywaniu trudności, analizowania doświadczeń. W kontekście przetrwania gatunku i samorozwoju stres indukowany myślami ma wiele zalet dla efektywnego planowania, rozwoju, uprzedzania niebezpieczeństw, przygotowywania się „na wypadek…”. Jednak w codziennym życiu jest to uciążliwe i bardzo często dotyczy stresorów, na które nie mamy wpływu lub są mało prawdopodobne. W naszej sytuacji, w XXI w. w Europie właśnie przewlekły stres dominuje i choć nie wywołuje tak spektakularnych bezpośrednich reakcji jak stres ostry, to jednak ciągle choć bardziej subtelnie działa na nasze organizmy, a na poziomie psychicznym ujawnia się jako zamartwianie, niepokój, czy rozdrażnienie. Przedłużająca się reakcje stresowa wiąże się często ze zmianami w zakresie neuroprzekaźników, przede wszystkim długotrwale podwyższonego poziomu kortyzolu. Generalnie mimo mniejszego nasilenia bezpośrednio odczuwanego stresu, ma większe skutki dla zdrowia niż stres ostry. Dotychczas wiele chorób somatycznych np. zaburzenia metaboliczne, sercowo-naczyniowe, autoimmunologiczne było łączone z stresem i radzeniem  sobie z nimi. Dane na ten temat są rzeczywiście mocne. Jednak bardzo ciekawe wnioski i nową perspektywę wnoszą badania na temat związków między percepcją, nastawienia wobec stresu a jego skutkami dla zdrowia. Okazuje się, że to czy wierzymy, że stres jest dla nas szkodliwy w znacznym stopniu wyjaśnia nam realne efekty działania stresu. Mocno upraszczając im bardziej wierzymy, że stres nam szkodzi tym większe szansa, że tak będzie.

Co do stresu w sklepie, nie jestem przekonana czy znam dobra odpowiedź, ale wydaje się że właśnie przekonania, czy percepcja oczekiwań społecznych mogą mieć istotna rolę. Najczęściej zależy nam na pozytywnej ocenie, a przynajmniej nie chcemy by myślano o nas jako o osobach łamiących podstawowe normy prawne, działających antyspołecznie. Dlatego nawet jeśli nie zrobiliśmy niczego złego, ale wiemy że jesteśmy obserwowani, sprawdzani pod kątem określonego zachowania, to możemy odczuwać niepokój. Tak może się zdarzyć w sklepie, gdy przechodzimy przez bramki, koło kasy (nawet, gdy niczego nie ukradliśmy, a rachunek za zakupy trzymamy w dłoni), czy na lotnisku na bramkach bezpieczeństwa (nawet jeśli nie ukrywamy materiałów wybuchowych, czy innych zakazanych przedmiotów). Pomyłka w takiej sytuacji wiąże się z nieusprawiedliwianą oceną, czy potencjalnym oskarżeniem i choć najczęściej prosta do wyjaśnienia, jest bardzo nieprzyjemna. Możemy wtedy się zastanawiać, czy inne osoby myślą o nas jak o przestępcach, czy może dodatkowo ktoś znajomy jest świadkiem zdarzenia itp. Dodatkowo w pewien sposób musimy się tłumaczyć z czegoś, czego nie zrobiliśmy. Jeśli mieliśmy tego typu doświadczenia, które finalnie zapamiętaliśmy jako bardzo nieprzyjemne, to zwiększa to prawdopodobieństwo odczuwania stresu w kolejnych podobnych sytuacjach. Mogą to być nawet drobne, ale negatywne doświadczenia. Przykładowo przypadkowe uruchomienie alarmu podczas zakupów, może sprawić, że następnym razem odczujemy lekki stres wychodząc ze sklepu. Takie skojarzenia budują się na zasadzie warunkowania, gdzie negatywne doświadczenia silnie powiązały się z miejscem lub sytuacją, przez co wzbudzają stres. Niestety świadomość, tego, że nie zrobiliśmy niczego złego nie pozwala na całkowite pozbycie się nieprzyjemnego uczucia. Dodatkowo uczymy się także przez modelowanie, czyli obserwowanie zachowań i ich skutków u innych osób. Dlatego można nawet bezpośrednio nie doświadczać ww. sytuacji, a jedynie być świadkiem, że kogoś niesłusznie oskarżono, zatrzymano do wyjaśnienia itp. może prowadzić do niepokoju gdy my znajdziemy się w podobnych sytuacjach. Podsumowując stres w codziennych sytuacjach, nawet gdy zachowujemy się w porządku, wynika z reakcji ewolucyjnych, społecznych oczekiwań i mechanizmów uczenia się. Podświadome procesy związane z oceną i nadzorem, wcześniejszymi doświadczeniami, mogą wywoływać lekkie napięcie emocjonalne i nasza niewinność wtedy niewiele pomoże.

dr n. o zdrowiu Julia Wyszomirska
Katedra Nauk Społecznych i Humanistycznych - Zakład Psychologii
Wydział Nauk o Zdrowiu w Katowicach ŚUM

Generalnie chodzi o popularność i powszechność jedzenia "kiełbasy". Podawano ja na 12 sposobów, a to za sprawą kucharza królewskiego, który stosowne przepisy przygotował, a one same się już rozpowszechniły (gazetki pisane, silva rerum). Szersze znaczenie tego powiedzenia można odnieść do, powiedzmy, "dobrobytu" tych czasów. Właściwie do wojny siedmioletniej (początek 1756) od 1735 panował na ziemiach Rzeczypospolitej spokój, bez większych klęsk elementarnych. Kiełbasa. więc była powszechna i poniekąd modna, ale czy była rarytasem, wątpię. O kuchni czasów staropolskich sporo pisał ostatnio Jarosław Dumanowski z UMK i jego pracach kiełbasa nie króluje. Stąd moja interpretacja podobna do tej z czasów PRL, o wadze "gulaszu węgierskiego", był powszechny i zarazem odżywczy. Kiełbasy - nie wiadomo jakie - pojawiają się także w inwentarzach majątków, a to oznacza, że i pojawiała się ona na stołach włościan (co raczej sugeruje, że biedy nie cierpieli). Oczywiście to skrót wywodu, o skali rozpowszechnienia "kiełbasy" nie można nic konkretniejszego powiedzieć, po prostu brak źródeł. Była w miarę powszechna, ale na "pańskich" stołach dłużej się nie zadomowiła.

prof. dr hab. Dariusz Rolnik
Zastępca Dyrektora Instytutu Historii
Uniwersytet Śląski w Katowicach

Koszenie trawników i grabienie liści na zimę są powszechną praktyką gospodarowania użytkami zielonymi szczególnie na terenach miejskich. Takie zarządzanie terenem ma złożony wpływ na ekosystem glebowy, funkcjonowanie zielonej infrastruktury a nawet na zdrowie i dobrostan ludzi. Zatem spójrzmy na zagadnienie okiem ekologa. Badania jednoznacznie wskazują, że intensywne koszenie negatywnie wpływa na bioróżnorodność roślin, stawonogów glebowych, owadów zapylających oraz ptaków. Wykazano, że mniejsza częstotliwość koszenia przyczynia się do zachowania równowagi ekologicznej, ograniczając w ten sposób występowanie gatunków niepożądanych czy inwazyjnych i oferując korzyści ekonomiczne dzięki zmniejszonym kosztom zarządzania. Intensywne koszenie trawników powoduje także zaburzenia w naturalnym obiegu składników odżywczych i wody, zmniejsza sekwestrację CO2 (przeciwdziałanie zmianom klimatu), a także podnosi temperaturę gleby co może doprowadzić do jej degradacji zarówno fizyko- chemicznej jak i biologicznej. Ograniczenie koszenia trawników powoduje zastąpienie pospolitych gatunków trawnikowych odpornych na koszenie, typowymi gatunkami łąkowymi. Taki proces, naturalnego tworzenia się łąk jest sytuacją korzystną zarówno dla przyrody jak i ludzi, podnosząc walory kulturowe i estetyczne a także  wpływając na jakość życia i zdrowie ich użytkowników. A jak wygląda sprawa opadłych liści? Również i ten temat jest złożony. Niewątpliwie opadłe liście są rezerwuarem materii organicznej, przyczyniają się powstawania próchnicy niezbędnej do wzrostu roślin, chronią przed mrozem ich korzenie i nasiona oraz zapobiegają przesuszaniu gleby. Stanowią także schronienie dla wielu organizmów glebowych takich jak: dżdżownice, owady min.: chrząszczy i ich larw, które nie tylko pozytywnie wpływają na funkcje ekosystemowe, ale także stanowią pokarm dla zimujących ptaków. Ponadto liście stanowią miejsce schronienia dla ssaków np. dla jeża europejskiego, który niedawno otrzymał kategorię „gatunku bliskiego zagrożeniu” na czerwonej liście gatunków zagrożonych publikowanej przez Międzynarodową Unię Ochrony Przyrody i Jej Zasobów. Jednak nie można pominąć i „ciemnej strony” opadłych liści. Jak wskazują wyniki badań, pozostawione liście mogą przyczyniać się do wzrostu liczebności populacji gatunków niepożądanych takich jak: szrotówek kasztanowcowiaczek, który jest gatunkiem inwazyjnym i szkodnikiem kasztanowców czy stadia młodociane niektórych gatunków kleszczy będących wektorem chorób takich jak borelioza. Dodatkowo ściółka niektórych drzew jak np.: dębu czerwonego, który jest gatunkiem inwazyjnym, powoduje pogorszenie się warunków siedliskowych objawiające się min.: niższą zawartością dostępnych składników odżywczych oraz wyższą zawartością związków potencjalnie toksycznych lub hamujących wzrost roślin i różnorodność fauny glebowej.

Jak więc widać odpowiedź na pytanie nie jest jednoznaczna. Choć argumenty przeważają na stronę zaprzestania koszenia trawników i grabienia liści to jednak w praktyce należy uwzględnić zarówno interesy przyrody, przeznaczenie użytku zielonego jak i bezpieczeństwo człowieka.

 

dr Gabriela Barczyk
Wydział Nauk Przyrodniczych 
Uniwersytet Śląski w Katowicach 

Inaczej na pytanie o to, czy coś „istnieje” odpowiedziałby zapewne filozof, inaczej przedstawiciele nauk ścisłych i przyrodniczych, inaczej wreszcie badacz kultury. Ten ostatni nie rozważa ogólnej kategorii „bytu”, nie odnosi się też jedynie do bytów materialnych, bowiem fakty kulturowe istnieją nie tylko fizycznie, lecz są również manifestacją wiedzy, wiary, umiejętności i postaw człowieka przekazywanych z pokolenia na pokolenie. Podobnie jest z tradycją: możemy obserwować jej przejawy, ale jako takiej nikt jej nie zważył, nie zmierzył itd.

Poprzez „magię” możemy rozumieć nie tylko pewną siłę (której istnienia nie sposób zweryfikować), ale przede wszystkim zespół określonych praktyk i postaw oraz system wiedzy je umożliwiający. Dlatego wielu antropologów kulturowych przeciwstawia się traktowaniu magii jako irracjonalnego doświadczenia zorientowanego na doraźne cele. Wskazuje się tu raczej na określony system filozofii przyrody kształtujący magię. Claude Lévi-Strauss stwierdza wręcz, że ze względu na konsekwentnie stosowaną zasadę przyczynowości, dążenie do odkrywania ładu w przyrodzie, można mówić o formalnym podobieństwie systemu magii do nauki i traktować je równolegle jako dwa sposoby poznawania i kształtowania świata. Patrząc na tę kwestię z tej perspektywy należy stwierdzić, że magia istnieje jako istotny system kulturowy (nie tylko w kulturach rdzennych bądź „tradycyjnych”).

dr hab. Marek Pacukiewicz, prof. UŚ
Instytut Nauk o Kulturze
Wydział Humanistyczny 

Uniwersytet Śląski w Katowicach 

Takie granice z pewnością istnieją. Większość badaczy zgodna jest, że system granic (wyznaczanych zarówno w przestrzeni jak i zachowaniu czy świadomości człowieka) stanowi szkielet strukturalny różnych kulturowych tradycji decydujący o ich tożsamości i swoistości: bez jakichkolwiek granic nie byłoby kultur. Musimy mieć jednak świadomość różnorodności kontekstów, w których kategoria „granicy dobrego smaku” może się pojawiać: estetyka, etyka, obyczajowość, praca… to tylko niektóre z nich i w każdej z nich granice mogą być określane według innych lub nieco innych kryteriów. Ponadto pamiętać należy o różnicach kulturowych: różne tradycje mogą inaczej określać granice tego, co my nazywamy „dobrym smakiem”, widać to chociażby na przykładzie zasad zachowania się „przy stole”. Niemniej jakieś granice zawsze pozostają, są punktem odniesienia i z pewnością każda tradycja kulturowa wskazuje na granice, które są absolutnie nieprzekraczalne.

dr hab. Marek Pacukiewicz, prof. UŚ
Instytut Nauk o Kulturze
Wydział Humanistyczny 

Uniwersytet Śląski w Katowicach 

Wprawdzie nie możemy tego empirycznie zweryfikować, jednak kultura, której nie można zredukować tylko do wymiaru materialnego, podsuwa innego rodzaju odpowiedzi. Uniwersa większości znanych nam kultur nie ograniczają się tylko do świata ludzkiego. Zazwyczaj wskazywana jest dodatkowa przestrzeń: zaświaty, które bardzo często przyjmują niezwykle skomplikowany kształt. W przypadku tradycji chrześcijańskiej są to niebo, piekło i czyściec.

W ten sposób człowiek próbuje jakoś zwizualizować sobie i zracjonalizować to, co niepoznawalne. Wszystkie te przestrzenne konstrukcje nabierają znaczenia symbolicznego: np. niebo staje się obietnicą zbawienia, a piekło ostrzeżeniem przed grzechem, co pozwala dookreślić pewien kulturowy etos. Są zatem zaświaty reprezentacją naszych aspiracji, wyobrażeń, nadziei i lęków, ale też rezerwuarem wartości i wzorców postępowania. Przypisując im obiektywne istnienie wierzymy również w trwałość naszej tradycji. Nawet jeżeli uznawać będziemy tylko ich znaczenie metaforyczne, tak jak nieraz czyni to dyskurs współczesnej kultury zachodniej, dostarczają wizji porządku, w który – w różnych jego wariacjach – człowiek chce wierzyć.

dr hab. Marek Pacukiewicz, prof. UŚ
Instytut Nauk o Kulturze
Wydział Humanistyczny 

Uniwersytet Śląski w Katowicach 

Moją uwagę zwraca charakter tego pytania: zmarli zostali w nim określeni jako „osoby”, a kwestią zasadniczą jest tu ich ewentualny kontakt z żywymi – czy mogą się z nami „zobaczyć”. Tym samym pojawia się tu wizja jakiejś możliwej relacji pomiędzy wciąż równorzędnymi partnerami. Antropolodzy kulturowi często podkreślają, że obraz zaświatów i status przypisywany zmarłym są częściowym odzwierciedleniem wartości i wzorów obecnych w światach ludzi żyjących. Wyobrażenia na temat świata zmarłych byłyby więc lustrem, w którym każda kultura się przegląda. Ponadto granica między życiem a śmiercią jest zbyt ważna i radykalna, by pozostawić ją niezabezpieczoną i nieokreśloną: kultura szuka logicznych przejść, które mogłyby oswoić doświadczenia graniczne, sprawić, że nie jest ono tak nagłe i destrukcyjne. Zdecydowana większość kultur nie porzuca więc swoich zmarłych, zakładając, że wciąż mamy z nimi kontakt, że są na swój sposób obecni, nawet jeśli „widzą nas” tylko w naszych wspomnieniach. Próbując odpowiedzieć na pytania dotyczące losu zmarłych i równocześnie próbując dookreślić naturę śmierci i życia, korzystamy z ram pamięci kształtowanych w procesie przekazywania tradycji.

 

dr hab. Marek Pacukiewicz, prof. UŚ
Instytut Nauk o Kulturze
Wydział Humanistyczny 

Uniwersytet Śląski w Katowicach 

Mikołaj z Myry żył w IV w. i tradycyjnie uznawany jest przez katolików za świętego – nie tylko z uwagi na przypisywane mu cuda, ale również jako wzorzec bezinteresownej pomocy potrzebującym; jego relikwie przechowywane są obecnie w Bari. Z biegiem czasu postać zaczęła funkcjonować powszechnie poza katolickim kontekstem: zaadoptowali ją protestanci, badacze wskazują również na kojarzenie z nią wątków pochodzących z kultów przedchrześcijańskich. W efekcie św. Mikołaj zmieniał się i wędrował: ze Wschodu na Zachód, a potem do Nowego Świata – i to właśnie w Stanach Zjednoczonych stworzono w XX w. jego najbardziej popularny obecnie wizerunek. Kiedyś prezenty przynosił biskup z pastorałem w ręce i mitrą na głowie, obecnie to starszy pan w czerwonej czapce i bujną siwą brodą. Próbując odpowiedzieć na pytanie, dlaczego po upływie szesnastu wieków św. Mikołaj jest nadal obecny w naszej pamięci, Joe Wheeler wskazuje na „Mikołajową ideę bezinteresownego obdarowywania”, „wiarę w poprawianie świata”, a antropolog Claude Lévi-Strauss zwraca uwagę na fakt, że szczera wiara małych dzieci w Mikołaja pomaga dorosłym wierzyć w życie. Dlatego św. Mikołaj wciąż znajduje naśladowców, a mówiąc o jego istnieniu w pierwszej kolejności wskazywać powinniśmy na ludzkie serca i pamięć.

Dlaczego współcześnie akurat Laponię uznaje się za jego dom? W tym przypadku również obserwujemy zmiany. Kiedyś wierzono, że św. Mikołaj przybywa z południa: np. do Holandii Sinterklaas przybywał z południa w towarzystwie czarnoskórej postaci nazywanej Zwarte Piet – zapewne dlatego, że protoplasta św. Mikołaja pochodzi z Myry na terenie obecnej Turcji, a jego relikwie znajdują się we włoskim Bari; współcześnie miejsca te nie wydają nam się już tak odległe, jak kiedyś. Na zasadzie odwrócenia i w wyniku powiązania z śnieżnymi Świętami Bożego Narodzenia, odesłano św. Mikołaja do Laponii. Decyduje o tym również charakter postaci: niezależnie od stopnia laicyzacji, jego związek ze sferą sacrum, chociażby poprzez „magiczną” aurę cudowności, jest niepodważalny – a tego rodzaju siły potrzebują dodatkowego, osobnego, znajdującego się w bezpiecznej odległości od naszej codzienności, świata; w tym sensie dla większości z nas Laponia to rodzaj „zaświatów”.

dr hab. Marek Pacukiewicz, prof. UŚ
Instytut Nauk o Kulturze
Wydział Humanistyczny 

Uniwersytet Śląski w Katowicach 

Jak stwierdza antropolog Edward T. Hall: „Czas mówi. Mówi wyraźniej niż słowa”. Organizacja czasu ma ogromne znaczenie w każdej kulturze. Jednak podobnie, jak pod względem językowym, poszczególne kultury różnią się ogólną koncepcją czasu oraz sposobami jego mierzenia. Nawet w kręgu szeroko pojętej tradycji zachodniej można wskazać kilka czasów (czas astronomiczny, rytm pracy, kalendarz liturgiczny…). Chociaż oparte na wyliczeniach matematycznych, poszczególne kalendarze różnią się między sobą: są efektem przyjętej konwencji, systemu liczbowego itp., ale przede wszystkim mają również charakter symboliczny, opisując cykl życia ludzkiego, świata przyrody, zaświatów… Tym samym można powiedzieć, że każdy kulturowo opracowany kalendarz jest prawdziwy i spełnia swoją funkcję w określonej społeczności.

Nie wszystkie te elementy potrafimy zrekonstruować w przypadku kalendarza Majów: wiemy, że oparty jest na znajomości matematyki i astronomii, jednak nieznana jest w pełni jego symbolika. Większość badaczy stwierdza zatem, że w oparciu o istniejące dane nie można potwierdzić znaczenia daty 21 grudnia 2012 jako końca świata (nawet końca świata Majów). O czym zatem „mówi” do nas kalendarz Majów dzisiaj, skąd fenomen tej daty? Należy chyba skojarzyć go z ogólnym toposem „końca świata”, który od dawna obecny jest w świecie zachodnim. Przepowiednie tego rodzaju i alternatywne scenariusze są chętnie podejmowane i przetwarzane, poszukuje się również dowodów na ich zasadność – a przykłady pochodzące z odległych w czasie i przestrzeni kultur najłatwiej uznać za potwierdzenie naszych intuicji.

dr hab. Marek Pacukiewicz, prof. UŚ
Instytut Nauk o Kulturze
Wydział Humanistyczny 

Uniwersytet Śląski w Katowicach 

Oczywiście za uprzywilejowaną pozycję człowieka w świecie odpowiada jego biologiczne „oprzyrządowanie”: przeciwstawny kciuk, postawa wyprostowana, aparat mowy, mózg itd. Jednak prawdziwym przełomem (decydującym również o rozwojowym „przyspieszeniu”) jest wytworzenie przez homo sapiens kultury: „oprogramowania” umożliwiającego nam porządkowanie rzeczywistości. Amerykański antropolog kulturowy, Alfred Louis Kroeber, wskazał na tej podstawie różnice pomiędzy ewolucją organiczną a społeczną. Ta pierwsza opiera się na dziedziczności biologicznej, a zatem nie jest kumulatywna. Ewolucja kultury wymaga stałego przekazywania i podtrzymywania dorobku ludzkości, z czym wiąże się konieczność rozbudowywania społecznej pamięci; jest zatem kumulatywna, ponieważ pamięć przechowuje zarówno najnowsze rozwiązania, jak również te wcześniejsze. Wszystko to zwiększa nasz potencjał i rozszerza wyobraźnię człowieka w zakresie porządkowania świata. Co więcej, rozwój kultury uwrażliwia nas na różnorodność i bogactwo naszego świata: efektem ewolucji biologicznej są te same i powszechne środki, natomiast rozwój kultury umożliwia stosowanie alternatywnych rozwiązań tych samych problemów w różnych tradycjach (nawet kategorie „rozwoju” czy „postępu” wcale nie są tak powszechne, jak nam się wydaje), co również poszerza wspólną gatunkowi ludzkiemu pulę wiedzy, wrażliwości i wyobraźni.

dr hab. Marek Pacukiewicz, prof. UŚ
Instytut Nauk o Kulturze
Wydział Humanistyczny 

Uniwersytet Śląski w Katowicach 

Wielokrotnie już badacze reprezentujący różne dyscypliny naukowe obwieszczali powszechną laicyzację kultury i „odczarowanie” świata. Tymczasem coraz częściej – również na gruncie naukowym – stwierdza się, że są to przedwczesne diagnozy.

Z pewnością człowiek zawsze będzie zadawał sobie pytania, na które nie będzie potrafił odpowiedzieć na gruncie empirii, tym zatem należałoby tłumaczyć psychologiczną potrzebę wiary. To ważny czynnik, jednak wiąże religię z jednostkowym irracjonalizmem. To przekonanie pobrzmiewa w zadanym pytaniu: religii przeciwstawiono „naukę i technikę”. Tymczasem religia, choć wymaga od nas wiary, nie jest irracjonalna.

Jak stwierdza amerykański antropolog, Clifford Geertz, religia jest systemem kulturowym: to „…system symboli, budujących w ludziach mocne, wszechogarniające i trwałe nastroje i motywacje poprzez formułowanie koncepcji ogólnego ładu istnienia i tworzenie wokół tych koncepcji takiej aury faktyczności, że owe nastroje i motywacje wydają się rzeczywiste”. Tym samym religia dostarcza nam idei, wartości, etyki, wyobrażeń na temat Kosmosu i sposobów jego racjonalizacji, będąc jednym z podstawowych wzorców ładu w ludzkim świecie kultury. Należy pamiętać zatem, że nie tylko „nauka i technika” pomagają człowiekowi tworzyć i rozumieć własny świat.

 Z kolei zdaniem antropologa Bronisława Malinowskiego, religia jest celem samym w sobie, ponieważ nie jest zorientowana jedynie pragmatycznie: utwierdza człowieka w przekonaniu, że potrafi on przekroczyć ograniczenia nakładane na niego przez naturę i jednostkową egzystencję, że jego działanie, istnienie i świat mają sens. Zgodne jest z tym towarzyszące religii przekonanie, że jest ona czymś więcej, niż tylko wytworem człowieka. Czynnik transcendentny (wiara w Boga, bóstwo, siłę), będąc rdzeniem każdej religii, w symboliczny sposób podkreśla, że nie wszystko zależne jest od jednostki, wskazując różnie pojmowany element pozaludzki jako istotny komponent gwarantujący istnienie świata kultury.

dr hab. Marek Pacukiewicz, prof. UŚ
Instytut Nauk o Kulturze
Wydział Humanistyczny 

Uniwersytet Śląski w Katowicach 

Padaczka występuje u około 1% populacji. Zapadalność na padaczkę w wieku rozwojowym wynosi 33-82 na 100 000 rocznie. Blisko połowa osób chorujących na padaczkę doświadcza pierwszego napadu w okresie do 18 roku życia (rż), u ok. 30% z nich ujawnia się do 5 rż, ponad 20% nowych zachorowań dotyczy wieku niemowlęcego.

Wśród chorób neurologicznych padaczka jest najczęstszą chorobą przewlekłą u dzieci i jedną z częstszych u dorosłych. Leczenie padaczki rozpoczynamy po postawieniu diagnozy. Zgodnie z definicją Międzynarodowej Ligii Przeciwpadaczkowej (International League Against Epilepsy, ILAE) padaczkę rozpoznajemy:

  1. a) po wystąpieniu co najmniej dwóch niesprowokowanych napadów padaczkowych w odstępie powyżej 24 godzin,
  2. b) po wystąpieniu jednego niesprowokowanego napadu padaczkowego i przy prawdopodobieństwie (>60%) pojawienie się dalszych napadów padaczkowych w ciągu kolejnych 10 lat,
  3. c) po rozpoznaniu zespołu padaczkowego.

Leczenie rozpoczyna się od monoterapii najniższą skuteczną dawką leku przeciwnapadowego dobranego do rodzaju napadów padaczkowych. Dane literaturowe przekonują, iż pierwszy zastosowany lek przeciwnapadowy kontroluje napady padaczkowe u 45% pacjentów, kolejne leki mają mniejszą skuteczność- szacunkowo drugi lek pozwala na kontrolę napadów u około 11% pacjentów. Pomimo zastosowania kolejnych leków w mono- i politerapii oraz szybkiej interwencji terapeutycznej u około 30% pacjentów występuje padaczka lekooporna. Zgodnie z definicją ILAE, padaczkę lekooporną rozpoznajemy w przypadku braku kontroli napadów pomimo zastosowania co najmniej dwóch dobrze tolerowanych, odpowiednio dobranych do typu padaczki, stosowanych w odpowiednich dawkach leków przeciwnapadowych.
W ostatnich dwóch dekadach postępy w technikach analiz genetycznych, takich jak macierze oligonukleotydowe (aCGH) oraz sekwencjonowanie nowej generacji (NGS), pozwoliły na identyfikację przyczyn wielu padaczek/ zespołów padaczkowych. Ponad połowa wszystkich padaczek ma podłoże genetyczne, a defekty pojedynczych genów, istotnych dla funkcjonowania kanałów jonowych lub receptorów neuroprzekaźników, zostały powiązane z kilkoma dziedzicznymi postaciami padaczki, także z tymi, które wcześniej klasyfikowano jako padaczki o nieznanej przyczynie czyli padaczki idiopatyczne.

Większe możliwości diagnostyczne pozwalają nam na skuteczniejsze leczenie, szczególnie leczenie spersonalizowane.
Termin „terapia spersonalizowana" odnosi się do leczenia z wykorzystaniem terapii ukierunkowanej molekularnie, z uwzględnieniem specyficznej patofizjologii choroby. Jest to przeciwieństwo podejścia one-size-fits-all, w którym leczenie jest opracowywane dla ogółu chorych, jedynie z minimalnym uwzględnieniem różnic między nimi albo nawet bez niego. Padaczka stanowi interesujący, choć trudny obszar w personalizacji leczenia, co wynika z faktu dużej heterogenności genetycznej związanej z rozwojem i funkcjonowaniem mózgu. Jednak i na tym obszarze notuje się ogromny postęp – terapię zindywidualizowaną na podstawie genu sprawczego, a nawet specyficznego wariantu molekularnego.

Należy podkreślić, że w zakresie terapii padaczki zarejestrowano w Unii Europejskiej 29 substancji czynnych.  Aktualnie polscy pacjenci mają dostęp refundacyjny do 22 z nich.
Wspomniane terapie są w całości refundowane, z wyjątkiem repozycjonowanego leku- fenfluraminy, która jest w procesie aplikacji o refundację publiczną. W Polsce w 2013 r. został zrefundowany lewetyracetam i lamotrygina; w 2014 roku: lakozamid i wigabatryna; w 2015 r.: okskarbazepina, w 2016 r.: stiripentol, a w 2018 r.: brywaracetam. Od marca 2023 r. refundacją został objęty cenobamat, ale tylko w leczeniu wspomagającym napadów ogniskowych u dorosłych pacjentów z padaczką lekooporną. Wymienione powyżej leki przeciwnapadowe są dostępne na podstawie recepty lekarskiej i dostępne w aptekach. Od 2024 r. można zastosować w wybranych grupach pacjentów z padaczką lekooporną kannabidiol w ramach dwóch programów lekowych:

- B.153. Leczenie pacjentów z napadami padaczkowymi w przebiegu zespołu stwardnienia guzowatego dla chorych w wieku 2 lat i powyżej, u których napady padaczkowe w przebiegu stwardnienia guzowatego nie są w pełni kontrolowane

- B.154.FM. Leczenie pacjentów z zespołem Lennoxa-Gastauta lub z zespołem Dravet dla pacjentów z zespołem Lennoxa-Gastauta lub z zespołem Dravet w wieku 2 lat i powyżej, u których napady padaczkowe nie są w pełni kontrolowane pomimo zastosowania co najmniej trzech leków przeciwpadaczkowych (jest to terapia wspomagająca w skojarzeniu z klobazamem)

Podsumowując, identyfikacja przyczyny padaczki jest bezsprzecznie pierwszym krokiem do wczesnego zweryfikowania rozpoznania i wdrożenia optymalnej terapii, co ma zasadnicze znaczenie dla poprawy długoterminowych wyników leczenia. Ustalenie genetycznego czynnika etiologicznego, leżącego u podstaw określonej postaci padaczki, może w pełni lub częściowo wyjaśnić pozytywną bądź negatywną odpowiedź na określone leki przeciwnapadowe.

 

Prof. dr hab. n. med. Justyna Paprocka  
Katedra i Klinika Neurologii Dziecięcej,
Wydział Nauk Medycznych w Katowicach,
Śląski Uniwersytet Medyczny