Nowe metody badań bezpieczeństwa nanotechnologii – mysz komputerowa zamiast laboratoryjnej

O perspektywie wykorzystania komputerów zamiast „mokrych” laboratoriów oraz najnowszych metodach badania bezpieczeństwa nanomateriałów z prof. dr. hab. Tomaszem Puzynem z Pracowni Chemometrii Środowiska w Katedrze Chemii i Radiochemii Środowiska na Wydziale Chemii UG rozmawia dr Beata Czechowska-Derkacz.

 

Chciałabym zacząć od pytania być może zaskakującego dla naukowca, ale dla laika jak najbardziej oczywistego. Nano, to znaczy ile? 

Nano, to znaczy dziesięć do minus dziewięć. Potrzebujemy bardzo silnego mikroskopu, żeby zobaczyć nano. W tej chwili wszyscy mówimy o wirusach, a nano to jest mniej więcej tyle, ile wielkość wirusa. Trochę większe od białka, a troszeczkę mniejsze od średniej wielkości wirusa. Stosując bardziej naukową, choć nadal uproszczoną definicję – nanocząstki to cząstki materii o wielkości od jednego do stu nanometrów. Są więc niewykrywalne przez ludzkie oko. Co ciekawe, istotnie różnią się właściwościami fizycznymi i chemicznymi od ich większych odpowiedników materiałowych. Wynika to z tego, że większość atomów, które je tworzą, znajduje się na powierzchni, a nie we wnętrzu takiej cząstki.

 

A gdyby zastosować porównanie, że nano to tyle, ile rozpuszczona szklanka wody w jeziorze. 

To jezioro musiałoby być bardzo duże. Około sto milionów razy większe niż szklanka.

 

Nanotechnologia jest obecnie zaliczana do tak zwanych „technologii kluczowych”. Ma też nadany specjalny priorytet w badaniach naukowych. Dlaczego te badania są takie istotne? 

O podstawach nanotechnologii, choć wtedy jeszcze nie używano tej nazwy, zaczęto mówić już w latach sześćdziesiątych ubiegłego stulecia, ale dopiero ostatnie dwadzieścia-trzydzieści lat przyniosło przełom. Nauczyliśmy się bardzo precyzyjnie kontrolować właściwości tych nanocząstek, które są nam potrzebne w różnych zastosowaniach. A jest ich bardzo dużo. Pierwsze skojarzenie, jakie zazwyczaj się pojawia, to wykorzystanie nanocząstek w materiałach związanych z wszelkiego rodzaju elektroniką: telefonach komórkowych, bateriach słonecznych czy samochodach elektrycznych. Musimy sobie jednak uświadomić, że to niewielka część zastosowania nanocząstek. Wykorzystywane są na przykład do produkcji odzieży antybakteryjnej, używanej na salach operacyjnych, w filtrach, które pomagają nam pozbywać się wirusów i bakterii z pomieszczeń szpitalnych, w kosmetykach – jako filtry chroniące przed promieniowaniem UV, czy w medycynie – jako nośniki leków. Dzięki temu ostatniemu zastosowaniu mogliśmy szybko opracować skuteczną szczepionkę na COVID -19. Przed COVID-em pracowaliśmy nad użyciem nanocząstek głównie jako nośników leków w terapiach antynowotworowych. Chodziło o to, żeby zredukować efekty uboczne chemioterapii. Nauczyliśmy się zamykać chemioterapeutyki w specjalnych nanokapsułkach, na przykład doksorubicynę czy cisplatynę, wykorzystywane do walki z chorobami nowotworowymi. Te nanokapsułki otwierają się wyłącznie w miejscu, gdzie się znajduje guz nowotworowy i w ten sposób chemioterapeutyki niszczą tylko chore komórki. Nazywamy to chemioterapią celowaną. Negatywnym skutkom chemioterapii nie jest więc poddawany cały organizm osoby chorej i szanse pacjenta w związku z tym znacznie rosną. Dzięki temu, że technologia nanokapsułek była już gotowa, mogliśmy ją szybko zaadoptować na potrzeby szczepionki przeciw COVID -19. Na przykład szczepionka firmy Pfizer zawiera RNA chronione przez taką właśnie w kapsułkę.

 

W związku z tym, że nanotechnologia jest wykorzystywana w tak wielu różnych dziedzinach naszego życia, a przede wszystkim w medycynie, jej produkty muszą być bezpieczne. Przedostanie się do organizmu człowieka nanocząstek o działaniu toksycznym mogłoby być brzemienne w skutkach.

Cały czas doskonalimy metody badania bezpieczeństwa nowych materiałów, które powstają w wyniku zastosowania nanotechnologii. Pierwsze takie badania były realizowane już dziesięć-piętnaście lat temu. Stosowaliśmy wtedy klasyczne metody toksykologiczne, uwzględniające wyłącznie właściwości chemiczne nanocząstek, nie związane z ich wielkością i kształtem. Okazało się, że jest to niewystarczające i trzeba było dostosować te metody do specyfiki nanocząstek. Nauczyliśmy się również, że niektóre rodzaje nanocząstek mogą zmieniać swoją postać w zależności od warunków. To ma swoje pozytywne i negatywne skutki. Pozytywnym efektem jest to, że na przykład specjalnie zaprojektowane nanokapsułki mogą się otwierać w pobliżu guza nowotworowego. Wykorzystywany jest fakt, że pH jest tam bardziej kwaśne. Z drugiej strony wrażliwość na wpływ mikrośrodowiska na strukturę może powodować to, że niektóre nanocząstki mogą agregować, czyli po prostu się zlepiać. W przypadku nośników leków jest to zwykle zjawisko niekorzystne.

Bardzo ważne jest to, aby wnioski dotyczące bezpieczeństwa nanomateriałów były oparte na solidnych wynikach badań. Tylko w ten sposób będziemy mogli odpowiedzialnie posługiwać się informacją na ten temat. Nanotechnologia otwiera ogromne możliwości w zakresie poprawy jakości ludzkiego życia, ale jak każde działanie, może stwarzać pewne zagrożenia. Zamiast nimi „straszyć”, posługując się niepełnymi, niesprawdzonymi informacjami, powinniśmy te zagrożenia dogłębnie poznawać i skutecznie eliminować. Dziś, dzięki postępom w badaniach nad bezpieczeństwem nanomateriałów oraz zmianach w przepisach, którymi te badania skutkowały, z całą pewnością możemy powiedzieć, że dopuszczane do użytku nanocząstki są bezpieczne dla człowieka i dla środowiska.

 

Zespół pana profesora od wielu lat bada bezpieczeństwo nanocząstek. Czasopismo „Nature Nanotechnology” opublikowało w czerwcu br. artykuł, w którym zaprezentowane zostały wyniki badań prowadzonych w ramach projektu NanoReg2, realizowanego przez międzynarodowe konsorcjum naukowe w ramach programu Horyzont 2020. Uniwersytet Gdański jest partnerem tego projektu, a pan profesor jednym z autorów artykułu. Czy mógłby pan profesor przybliżyć te badania?

Mój zespół już od ponad piętnastu lat zajmuje się gałęzią toksykologii, określaną mianem „toksykologii komputerowej”. Studentom na wykładach wyjaśniam, że zastępujemy myszy laboratoryjne myszami komputerowymi. Eksperymenty in silico, czyli „w komputerze”, które na co dzień prowadzimy, wykorzystują już istniejące dane toksykologiczne do tego, żeby przewidywać właściwości nowych nanocząstek. Nowych, czyli takich, które jeszcze w ogóle nie zostały zsyntetyzowane. Jest to bardzo ważne, biorąc pod uwagę wielość różnych możliwych kombinacji parametrów charakteryzujących budowę chemiczną i właściwości fizyczne, na przykład wielkość i kształt nanocząstki. Na świecie są miliony substancji chemicznych. Każda z nich może występować w miliardach różnych nanopostaci. Nie jesteśmy w stanie laboratoryjnie wszystkich tych możliwości przeanalizować. Zaprzęgamy więc do pracy komputer, metody wykorzystujące sztuczną inteligencję i uczenie maszynowe. Dzięki temu możemy analizować miliardy różnych rozwiązań i spośród nich wybierać te, które są najlepsze pod względem zarówno funkcjonalności, jak i bezpieczeństwa. W projekcie NanoReg2 pokazaliśmy właśnie, w jaki sposób procedury badań toksykologicznych, opracowywanych na potrzeby przepisów regulujących bezpieczeństwo nanotechnologii, mogą być rozszerzone o metody „toksykologii komputerowej”.

Metody te opracowujemy w kolejnym „horyzontowym” projekcie: NanoInformaTIX oraz w dwóch nowych projektach finansowanych przez Narodowe Centrum Nauki o akronimach: FateNANO i TransNANO. W tym ostatnim na przykład postawiliśmy odważną hipotezę, że dzięki toksykologii komputerowej będziemy mogli sprawdzić nie tylko, czy narażenie na określoną nanopostać wywoła efekt toksyczny na poziomie komórki, organu lub organizmu w krótkim okresie, ale również czy może wywołać negatywne skutki w długiej perspektywie czasowej, przy bardzo niewielkim nawet stężeniu na poziomie molekularnym. Obserwujemy, jak zmienia się ekspresja poszczególnych grup genów oraz szlaki metaboliczne przy długotrwałym narażeniu na nanocząstki oraz staramy się nauczyć przewidywać te efekty na podstawie budowy chemicznej i właściwości fizycznych nanocząstek.

 

Czy trudno jest przedostać się w dość hermetycznym świecie nauk ścisłych, a szczególnie w obszarze nowych technologii, ze swoimi badaniami i wnioskami? Czy raczej jest odwrotnie – każda nowa teoria, nowe odkrycie są obiektem ogromnego zainteresowania innych zespołów badawczych?

Wypadałoby być skromnym w takiej sytuacji, ale ja nie będę. Mam świetny zespół. Jako jedni z  pierwszych w świecie zaczęliśmy zajmować się zastosowaniem metod komputerowych w badaniu bezpieczeństwa nanocząstek. Wszystko zaczęło się od pomysłu, na który wpadliśmy wspólnie z moim ówczesnym mentorem prof. Jerzym Leszczynskim z Jackson State University, gdy byłem na „post-doku” w jego zespole. Temat okazał się ciekawy. Po powrocie do Polski, między innymi dzięki wsparciu ówczesnego Rektora śp. prof. Andrzeja Ceynowy i władz Wydziału Chemii udało mi się stworzyć wokół pomysłu nową grupę badawczą. Wkrótce opublikowaliśmy pierwszą pracę w „Nature Nanotechnology” i dzięki temu staliśmy się rozpoznawalni. Myślę też, że ważnym czynnikiem, który spowodował, że mogliśmy odnieść sukces jest to, że metody toksykologii komputerowej nie są drogie w porównaniu z klasycznymi technikami wykorzystującymi eksperyment. Znacznie mniejsza była więc tak zwana „bariera wejścia” i mogliśmy rozpocząć badania nie czekając na drogi sprzęt. Pamiętam, że w jednej z instytucji finansujących badania naukowe zapytano mnie, czy wierzę w to, że komputery zastąpią tak zwane laboratoria mokre. W mojej ocenie nie jest to możliwe w stu procentach, ale jestem też przekonany, że metody komputerowe nabiorą dużego znaczenia szybciej, niż nam się wydaje.

 

Wspominał pan profesor o wykorzystaniu nanotechnologii do walki z nowotworami. Badania nad nanocząstkami wiążą się również z badaniami kwantowymi, które jednak w powszechnym odbiorze kojarzą się z cyberbezpieczeństwem czy teleportacją. Czy ramach drugiej rewolucji kwantowej, o której tak dużo obecnie się mówi, jesteśmy bliżej poznania tych zjawisk, czy jest to kwestia odległej przyszłości?

Nie jestem ekspertem w dziedzinie fizyki kwantowej i wolałbym zostawić tego rodzaju rozważania i wnioski swoim znakomitym kolegom. Ale myślę, że jest taki punkt, moment w czasie, kiedy spotkają się wszystkie technologie, nad którymi równolegle pracujemy w naszych zespołach badawczych. Opracujemy na przykład komputer kwantowy, który będzie umożliwiał wykonywanie obliczeń, które dotychczas były dla nas niewyobrażalne i poza zasięgiem. Wykorzystamy go do projektowania nanocząstek, które będą wspierały prowadzenie różnego rodzaju terapii w medycynie. Będą mogły być też wykorzystywane w szczepionkach immunologicznych przeciwko nowotworom. Takie przenikanie dziedzin nauki dzieje się tu i teraz. Podział na dyscypliny i obszary naukowe staje się coraz bardziej sztuczny, ponieważ badania zespołu w jednej dyscyplinie otwierają drogę kolejnym. Można powiedzieć, że nauka się integruje. Takie podejście do badań naukowych zwiększa szanse na poznanie zjawisk, które dzisiaj mogą wydawać się nam nawet najbardziej nieprzeniknione.

 

W świetle nowej ustawy o szkolnictwie wyższym i nauce ten podział wydaje się jeszcze bardziej zdecydowany. Czy jest szansa, aby możliwość uzyskiwania grantów na interdyscyplinarne badania i publikowanie artykułów w czasopismach przekraczających granice dyscyplin naukowych będą bardziej swobodne?

Wiem, że takie interdyscyplinarne badania, przekraczające bariery naukowych dziedzin, są prowadzone w wielu zespołach, ale mogę mówić na przykładzie własnego. Rozważamy projekt, w którym można połączyć badania z zakresu komunikacji i nanotechnologii. Ostatnie pięć lat przyniosło duży przełom w badaniach nad komunikacją i językiem, jakim porozumiewają się komórki w organizmie. Coraz więcej wiemy na przykład, w jaki sposób informacja związana z przerzutami w chorobach nowotworowych jest przenoszona między komórkami. Chcielibyśmy zastosować metody sztucznej inteligencji i uczenia maszynowego do opisania języka, jakim porozumiewają się komórki oraz jego struktur. Nie wyobrażam sobie jednak takiego projektu bez naukowca z obszaru nauk humanistycznych czy społecznych, będącego specjalistą dziedzinie języka, który spróbowałby wspólnie z nami odzwierciedlić mechanizmy komunikacji międzykomórkowej. To jest ostatnio jest mój „konik naukowy”, więc mam nadzieję, że taki projekt w przyszłości powstanie. 

 

Mówiąc o interdyscyplinarności nauki wspominaliśmy o rewolucji kwantowej. W podsumowaniu chciałam zapytać również o kolejną rewolucję, w którą wpisuje się, jak sądzę, aktywność zespołu pana profesora – jakie są szanse powodzenia trzeciej rewolucji przemysłowej, która, dzięki cyfryzacji, otwiera tak ogromne możliwości z zakresie poprawy jakości ludzkiego życia?

Myślę, że bardzo duże. W niedalekiej przyszłości roboty i komputery zastąpią nas w wielu niewdzięcznych aktywnościach, a my będziemy mieli dzięki temu więcej czasu na to, co najbardziej kochamy… Parafrazując stare chińskie przysłowie: żyjemy w ciekawych czasach. A bardziej poważnie, bardzo wierzę w polską naukę, tylko myślę, że musimy nauczyć się lepiej wykorzystywać szanse.

Niestety, w Polsce jesteśmy czasem zbyt dużymi pesymistami naukowymi. Bardzo często podczas rozmów ze studentami widzę wyraźny dystans, a nawet niedowierzanie, że w medycynie, gdzieś na świecie, funkcjonują już pewne rozwiązania, wykorzystujące nanotechnologię. Pokazuję im wtedy konkretne wyniki badań klinicznych, na przykład z Bostonu, i ten dystans znacznie się zmniejsza.

Trzeba też jasno stwierdzić, że przez wiele lat nauka w Polsce nie była priorytetowym zadaniem państwa. Czeka nas w tym zakresie jeszcze dużo pracy i myślę, że nie ma prostych rozwiązań. W budowaniu pozycji nauki nie pomagają również stawiane na równi z faktami pseudonaukowe teorie, nie poparte wynikami badań. W ten sposób osiągamy odwrotny skutek – zmniejsza się zaufanie do nauki. Mam nadzieję, że również czas pandemii pokazuje, jak ważna jest rola naukowców, abyśmy mogli żyć w trochę bardziej bezpiecznym świecie.

fot. A.Smykowski
dr Beata Czechowska - Derkacz