O wrzucaniu książek do niszczarki
Gospodarz portalu nazwał mnie w zeszłym tygodniu specjalistą w zakresie genetyki, co (jak się obawiam) w oczach prawdziwego genetyka mogłoby wyglądać jak swego rodzaju uzurpacja. Przy tym obiecałem wrócić do pisania, jak tylko obowiązki pozwolą. Jeszcze nie do końca pozwalają, ale w zeszłym tygodniu prowadziłem ostatnie zajęcia przed październikiem, więc czasu mam nieco więcej. Stąd poniższa notka, w której – z niewątpliwym opóźnieniem – spróbuję nieco bliżej przedstawić swoją dyscyplinę. W możliwie obrazowy sposób.
Przedstawiam się jako „bioinformatyk”, co większości rozmówców nic nie mówi. Czasem uzupełniam, że zajmuję się między innymi „składaniem genomów” [1], co mówi im niewiele. O jakichś genomach większość słyszała, ale co to znaczy, że ktoś je składa? Dodaję więc, że w szczególności zajmują mnie rośliny uprawne. Tu już stoimy na dużo pewniejszym gruncie, bo roślinę w jakiejś formie widział każdy, a uprawną to nawet codziennie. Niestety, przez wcześniejsze zdanie o jakimś „składaniu” zazwyczaj pojawia się tu skojarzenie z organizmami modyfikowanymi genetycznie, o które tu akurat nie chodzi, a przynajmniej – niekoniecznie.
Po kolei. Skupię się na dwóch pierwszych formułach. Bioinformatyka to dziedzina informatyki zajmująca się problemami biologicznymi. Sami informatycy już ludziom spowszednieli, a i amatorskich pasjonatów informatyki nie brakuje. Rzetelniejsi z nich powinni kojarzyć profesora Donalda Knutha, autora monumentalnej monografii „Sztuka programowania”. W wywiadzie z roku 1993 [2], zapytany o obiecujące obszary badań dla osób dopiero rozpoczynających karierę, profesor Knuth świetnie opisał atrakcyjne strony mojej dziedziny i jej przewagi tak nad biologią, jak i czystą informatyką:
Biologia jest bardzo cyfrowa i niewiarygodnie złożona, ale i niewiarygodnie użyteczna. Problem z biologią polega na tym, że jeśli już musisz pracować jako biolog, to same nudy. Eksperymenty zajmują ci trzy lata, a potem pewnej nocy siada prąd i wszystko umiera! Zaczynasz od nowa. W komputerze możemy tworzyć własne światy. Biolodzy zasługują na wiele uznania za to, że potrafią przez to brnąć.
Trudno mi z przekonaniem twierdzić, że po pięćdziesięciu latach gwałtownego rozwoju informatyki, wciąż na wyciągnięcie ręki będzie wiele fascynujących, nierozwiązanych problemów, że nie będzie to w zasadzie jedynie praca nad udoskonalaniem dobrze zbadanych zagadnień. Może wszystkie proste i naprawdę wielkie rzeczy zostały już odkryte. To niekoniecznie prawda, ale nie mogę oczekiwać niekończącego się wzrostu. Nie mam takiej pewności co do informatyki jak co do biologii. W biologii ekscytujących problemów do rozwiązania jest spokojnie na pięćset lat, o taką skalę chodzi.
Z praktyki dydaktycznej w dziedzinie bioinformatyki stosowanej dodam, że słowa profesora to również doskonała charakterystyka obu biegunów, z których przybywają do nas magistranci. Z jednej strony: biolodzy, którym zbrzydła praca w „mokrym” laboratorium, pragnący zająć się analizą danych biologicznych, a nie ich tworzeniem. Z drugiej: ludzie o wykształceniu technicznym, szukający ciekawych zastosowań dla swoich umiejętności informatycznych. Obie te grupy na jednym kierunku to już ekscytujący problem dydaktyczny. Tekst nie o tym, ale dziś mamy rozdanie dyplomów, więc pomyślałem o studentach.
Kiedy profesor Knuth udzielał powyższego wywiadu, trwały już prace nad jednym z najgłośniejszych „ekscytujących problemów”, czyli międzynarodowym projektem badania ludzkiego genomu (Human Genome Project), którego sekwencję opublikowano w 2003 roku. Genom to sekwencja par zasad, opisujących części składowe naszego organizmu. Można ją przedstawić w formie tekstowej, to znaczy jako ciąg znaków, po jednym dla pary zasad. Przy czym w przypadku ludzkiego genomu są w tym tekście nieco ponad trzy miliardy liter, a całość podzielona jest na 23 „tomy”, czyli chromosomy. To spora biblioteczka, ale bez przesady – w muzeum Wellcome Collection w Londynie zmieszczono to nawet swego czasu na jednej szafce. Choć trzeba przyznać, że druk był malutki, a mebel wysoki [3].
Zasadniczy problem bioinformatyczny w projekcie poznania ludzkiego genomu wynikał z faktu, że przy użyciu ówczesnych technik nie dało się czytać (czyli „sekwencjonować”) fragmentów dłuższych niż kilkaset znaków. Sekwencjonując w około godzinę 384 [4] fragmentów po ~600 par zasad (znaków) każdy, sprawne laboratorium odczytałoby do 5,5 miliona znaków dziennie, oczywiście przy pracy całodobowej. Odczytanie całego ludzkiego genomu zajęłoby w takim tempie nieco ponad półtora roku, przynajmniej gdyby sprawa polegała po prostu na odczytaniu tego tekstu fragment za fragmentem.
Niestety nie było tak łatwo, bo w dzieleniu genomów na fragmenty jest niewiele z chirurgicznej czy nawet edytorskiej precyzji, a dużo więcej z wyrywania z książki strony za stroną i wrzucania tychże do niszczarki. Powstałe strzępki papieru wysypujemy następnie na stół i próbujemy strzęp po strzępie odczytać, a odczytaną treść ponownie złożyć w całość. Przy tym musimy zmielić więcej niż jedną kopię tekstu, bo część fragmentów się zgubi, część będzie nie do odczytania, a co najważniejsze – jedyną skuteczną metodą złożenia tekstu w całość jest znajdowanie fragmentów, których treść częściowo się pokrywa. Jeśli jeden fragment kończy się słowami, którymi zaczyna się drugi, to może da się je połączyć w jeden dłuższy fragment. By taka sytuacja mogła zaistnieć, potrzebujemy w naszej kupce strzępów pochodzących z wielu kopii tego samego tekstu. Od strony biologicznej to akurat łatwe, bo kopie genomu (nawet dwie, po jednej od każdego z rodziców) mamy w każdej komórce, a fragmenty dość łatwo kopiować metodami biologii molekularnej [5]. Przekładając to na książkową metaforę: mamy całą paletę identycznych książek, a poza tym dostęp do kserokopiarki.
Mówiąc dalej językiem tej barwnej metafory: współpracujące w Human Genome Project zespoły badawcze obdzieliły się „stronami” (fragmentami po kilkaset tysięcy par zasad), nakserowały kopii, przepuściły całość przez niszczarki, a następnie przysiadły do mozolnej pracy odczytywania po 384 fragmentów naraz, każdy po jakieś 600 znaków. Po ich odczytaniu zaczynała się najciekawsza dla bioinformatyka praca – trzeba było systematycznie, to znaczy za pomocą odpowiednio napisanego programu komputerowego, porównać każdy fragment z każdym innym, w poszukiwaniu pokrywającego się tekstu, ułożyć to w graf, a następnie znaleźć najbardziej zgodną (konsensusową) sekwencję. To właśnie proces „składania” genomu [6], o którym pisałem na początku.
Metody zastosowane przy Human Genome Project poznawałem na studiach pierwszego stopnia, jeszcze w Polsce. Gdy sam zabrałem się za składanie genomów, ponad dekadę po publikacji genomu człowieka, metody te należały już do przeszłości. Całe szczęście, bo nie dysponowałem miliardowymi budżetami wydanymi na tamten projekt! Genomy pomidora i jego dzikich krewnych, od których zaczynałem, są około trzykrotnie mniejsze od ludzkiego [7], ale to wciąż ten sam rząd wielkości. W technologiach sekwencjonowania nastąpiła jednak prawdziwa rewolucja, w postaci wysypu nowych technologii, nazywanych zbiorczo „sekwencjonowaniem następnej generacji” (next generation sequencing), lub skrótowo: NGS [8].
W epoce dominacji platform NGS nie pracowaliśmy już z fragmentami o długości 600 par zasad. Nie, nasze fragmenty były dużo... krótsze. Najdłuższe miały po 250 par zasad, typowe po 100-150, a najkrótsze dostępne w stosowanej przez nas technologii jedynie po 35. W dodatku były niższej jakości od tych wcześniejszych fragmentów, to znaczy każdy znak obarczony był wyższym błędem. Gdzie jakieś zalety? Otóż zamiast 384 fragmentów, nowe platformy tanio i szybko sekwencjonowały miliony fragmentów naraz.
Od strony bioinformatycznej, to znaczy od strony składania tego w całość, był to jednak pewien problem. Na szczęście z gatunku ekscytujących. Dalej trzeba było składać tekst z książek zmielonych przez niszczarkę, tylko fragmenty były sporo mniejsze, bardziej poszarpane... a także było ich o wiele, wiele więcej. Dawna metoda, oparta o porównywanie każdego fragmentu z każdym, sprawdzała się, gdy były tych fragmentów tysiące. Przy milionach fragmentów obliczenia trwałyby niepraktycznie długo. Powstały więc nowe narzędzia do składania genomów, oparte o grafy de Bruijna, niewymagające wspomnianych porównań i przez to szybsze, choć złożenie genomu i tak mogło zająć tygodnie. Nowe metody naturalnie posiadały również swoiste wady, z których najprostszą do opisania jest, pisząc kolokwialnie, pamięciożerność. Grafom de Bruijna, które należało zbudować z odczytywanych sekwencji, zdarzało się dla naszych pomidorowych genomów zajmować nawet kilkaset gigabajtów pamięci RAM. Można więc powiedzieć, że problem rozwiązano, zamieniając algorytm wymagający czasowo, czyli obciążający procesor, na algorytm wymagający pamięciowo. Przy tym dodam, że posiadanie wymówki dla alokacji struktury danych zajmującej siedemset gigabajtów RAM, to dla informatyka dowolnej specjalizacji coś bardzo satysfakcjonującego. Podobnie jak zamawianie komputera posiadającego terabajt lub więcej pamięci; nasze laboratorium kupiło pierwszy w 2015 roku. Dzieliłem się ostatnio tą satysfakcją z kolegą nawigatorem ArGutem.
Od czasu kiedy zaczynałem, technologia znów poszła naprzód. Dziś są i platformy tanio odczytujące całkiem długie sekwencje, po kilkadziesiąt tysięcy par zasad [9]. To one dominują obecnie w składaniu genomów, choć często w kombinacji ze sprawdzonymi i wciąż tańszymi krótkimi fragmentami z epoki NGS, w ramach tak zwanego składania hybrydowego. Złożenie i publikacja nowego genomu to dziś dość rutynowe wydarzenie, choć badacze wciąż ścigają się, jeśli chodzi o jakość rezultatów. Ostatecznie złożenie genomu to dopiero początek. Potem szuka się w nim genów, porównuje do już znanych... Złożona sekwencja, jako tak zwany „genom referencyjny”, robi za stały punkt odniesienia przy rozwiązywaniu kolejnych ekscytujących problemów biologicznych. Jeśli wierzyć Knuthowi, zostało ich jeszcze na ponad czterysta lat. O nich innym razem.
[1] Spolszczam angielskie „assembly” właśnie jako „składanie”, choć spotkałem się i z potwornym słowem „asemblacja”. Z polszczyzną w mojej dziedzinie ogólnie bywa ciężko. Z reguły i Polacy używają po prostu angielskich terminów.
[2] Cytat z wywiadu udzielonego sieci księgarni Computer Literacy Bookshops, Inc. w grudniu 1993 roku. Przekład własny. Wspominałem o tym luźno we wcześniejszym tekście, ale nie mogłem wówczas znaleźć źródła. Tu link archiwalny do całego wywiadu:
https://web.archive.org/web/20011217230652/https://tex.loria.fr/litte/knuth-interview
[3] Do zobaczenia tu: https://wellcomecollection.org/articles/WcvK4CsAANQR59Up
[4] 384 to 24 razy 16 próbek, czyli wymiar standardowej mikropłytki laboratoryjnej. Zażartowałem kiedyś u Stanisława Ordy, że jak programista wyceni projekt na około 60 000 złotych, to dla uproszczenia zaokrągli do 65 535. Analogicznie: jeśli biolog molekularny oceni, że potrzeba około 400 próbek, to dla uproszczenia zaokrągli do 384.
[5] W czasach Human Genome Project stosowano tu tak zwane BAC, czyli sztuczne chromosomy bakteryjne. W uproszczeniu: fragmenty ludzkiego genomu umieszczano w bakteriach (najczęściej stosowano pałeczkę okrężnicy), które następnie namnażano.
[6] Metodą OLC (Overlap Layout Consensus).
[7] Są wśród roślin uprawnych również genomy sporo większe. Przykładowo genom cebuli jest pięciokrotnie większy od ludzkiego.
[8] Były to zażarcie konkurujące ze sobą platformy kilku różnych firm, z których ostatecznie zatryumfowała Illumina. Ich walka to temat na osobny tekst.
[9] Dominuje wśród nich technologia firmy Pacific Biosciences, której głównym konkurentem jest Oxford Nanopore Technologies.
tagi: bioinformatyka sekwencjonowanie genomy
![]() |
tomasz-kurowski |
26 czerwca 2024 07:29 |
Komentarze:
![]() |
aember @tomasz-kurowski |
26 czerwca 2024 07:45 |
Bardzo doceniam umiejętność przełożenia skomplikowanej dziedziny na metafory jak krowie na rowie. Dzięki! :D
![]() |
olekfara @tomasz-kurowski |
26 czerwca 2024 07:53 |
Czy ktos policzył, jakie jest prawdopodobieństwo prawidłowego odczytania genomu, wracając do przykładu składania książki po niszczarce.
![]() |
tomasz-kurowski @aember 26 czerwca 2024 07:45 |
26 czerwca 2024 09:08 |
Dziękuję bardzo. Takie metafory to częściowo pokłosie ekscytującego problemu dydaktycznego, o którym wspomniałem przy okazji. Nierzadko trzeba wyjaśnić biologowi zaskakująco podstawowe zagadnienia techniczne, a osobie z wykształceniem technicznym – biologiczne.
Uczyłem kiedyś bardzo dobrego studenta, dziś świetnego fachowca, który pod koniec pracy nad projektem dyplomowym zwrócił się do mnie zakłopotany, prosząc o wytłumaczenie, co to w zasadzie jest chromosom... Zdarza mi się tą anegdotką podzielić z biologami, którzy z reguły są zszokowani takimi brakami w "podstawowej" wiedzy. Jednak student pojął, projekt skończył, dziś jest świetnym fachowcem, ja przećwiczyłem tłumaczenie takiego pojęcia, a w dodatku mam z tego anegdotkę. Dostałem też później od niego ser z jego rodzinnych stron. Same plusy.
![]() |
tomasz-kurowski @olekfara 26 czerwca 2024 07:53 |
26 czerwca 2024 09:16 |
Ogólnie akceptuje się pewien poziom błędów, dziur w sekwencji, niepewności co do struktury niektórych części genomu i tym podobnych niedoskonałości. Przy tym wraz z pojawianiem się nowych platform i technik publikuje się kolejne, ulepszone wersje "genomu referencyjnego". Sprawia to różne trudności, bo jak napisałem na końcu, te sekwencje są stosowane głównie jako pewien punkt odniesienia. Jeśli zmieni się punkt odniesienia, to wiele rzeczy policzonych z jego wykorzystaniem trzeba analogicznie zmienić. To już osobny "ekscytujący" problem.
Dla genomu ludzkiego pierwsze sekwencje z chromosomami "od telomeru do telomeru", to znaczy bez żadnych dziur, publikuje się dopiero od paru lat, chociaż niby składanie "ukończono" i opublikowano w 2003.
![]() |
atelin @tomasz-kurowski |
26 czerwca 2024 09:45 |
Nie podam źródła i nie wskażę, ponieważ za cholerę nie pamiętam, ale czytałem jakiś artykuł o tym, że SI odkryła/wynalazła kilka tysięcy nowych związków chemicznych - z tego 8 (osiem) nadających się do wykorzystania.
Czy taka genetyka pomidorów może się posiłkować SI?
![]() |
ArGut @tomasz-kurowski |
26 czerwca 2024 13:01 |
Fajnie, że kolega nawigator tak obrazowo napisał o swojej pracy. Po tej naszej rozmowie, to praca kolegi ma dużo z polityki. Takie mam wrażenie, że polityka to taka humanistyczna informatyka a nawet humanistyczna elektronika.
Rośliny dobrze znoszą chów wsobny. Istnieją zwierzęta, które się rozmnażają wsobnie. Mechanizmy ze świata roślin aż się prosi zastosować na ludziach, ale naukowcom nie wolno eksperymentować na ludziach.
A z moich "koników" polityczno-informatycznych to taki eiPel w tą ilością pamięci, która codziennie używamy z panią ArGutową do pracy z naszymi używanymi komputerkami przenośnymi obdarzyłby przynajmniej 8 MacBook-ów jak nie 16. I sprzedał NA RATY.
![]() |
tomasz-kurowski @olekfara 26 czerwca 2024 07:53 |
26 czerwca 2024 18:48 |
Rano się trochę śpieszyłem, ale jeszcze uzupełnię przykładem tego, jak charakteryzuje się ten "pewien poziom błędów". Popularna metoda, tzw. BUSCO (benchmarking with universal single-copy orthologs) jest oparta o tak zwane ortologi o pojedynczej kopii. Mamy dla różnych grup organizmów listy dobrze zbadanych genów, o których wiadomo po pierwsze, że na pewno zawsze występują w tych organizmach, a po drugie, że z reguły występuje tylko jedna kopia tego genu. By ocenić jakość złożonego genomu, sprawdzamy ile z tych znanych genów faktycznie tam się pojawi, czy w całości, oraz w ilu kopiach.
Przykładowo, w opublikowanym przez naszą grupie genomie dzikiego pomidora Solanum chilense znaleźliśmy 94.9% kompletnych genów, które na pewno powinny tam być (z czego 4.1% było w dwóch lub więcej kopiach, a powinny być tylko raz), 1.8% było obecne fragmentarycznie, a 3.3% nie było wcale. To daje pewne pojęcie o tym, ile w genomie brakuje, jaki jest poziom duplikacji sekwencji, etc.
![]() |
tomasz-kurowski @atelin 26 czerwca 2024 09:45 |
26 czerwca 2024 18:53 |
AI to bardzo dobre narzędzie do generacji hipotez, chociaż często wąskie gardło jest raczej przy ich weryfikacji i tej żmudnej pracy biologa, o której mówił Knuth. Jednak dużo się w tej dziedzinie dzieje, szczególnie przy obecnym boomie na AI.
Ze swojej strony wiem, że uczenie maszynowe bardzo przydaje się do dość przyziemnych rzeczy, jak kalibracja kontroli jakości odnajdowanych w genome wariantów (różnych wersji tej samej sekwencji). Nieco podobnie do mojego komentarza o BUSCO powyżej: uczymy maszynę, jak wyglądają w naszych danych warianty, o których na pewno wiemy, że występują w populacji. Dzięki temu potem maszyna pozwala nam łatwiej ocenić, czy jakieś "nowe" mutacje, jakie pojawią się w naszych danych, to faktycznie coś istniejącego w badanej próbce, czy to raczej np. błąd sekwencera.
![]() |
chlor @tomasz-kurowski |
26 czerwca 2024 18:59 |
Czy to że genom ludzki jest już znany, oznacza iż wszyscy mamy identyczny? Jeśli tak, to po co są badania genetyczne poszczególnych ludzi?
![]() |
tomasz-kurowski @ArGut 26 czerwca 2024 13:01 |
26 czerwca 2024 19:00 |
Ciekawe spojrzenie. Techniki od roślin mają jednak swoją specyfikę, którą ciężko bezpośrednio przenosić na ludzi. Na przykład czas dojrzewania i ludzkie pokolenia są raczej przydługie, jak na horyzonty czasowe projektów badawczych :)
O eugenice "tylnymi drzwiami" mówi się czasem w kontekście diagnostyki prenatalnej albo preimplantacyjnej.
![]() |
tomasz-kurowski @chlor 26 czerwca 2024 18:59 |
26 czerwca 2024 19:21 |
Ten znany i opublikowany, czyli tak zwany genom referencyjny, robi za "punkt odniesienia". To znaczy można pobrać DNA z Tomasza Kurowskiego, rozbić je na fragmenty, poddać je sekwencjonowaniu, a odczytane fragmenty porównać z genomem referencyjnym. "Genom Tomasza Kurowskiego" reprezentuje się w takiej sytuacji jako plik tekstowy z listą znalezionych różnic między moim genomem, a tym referencyjnym. To dużo taniej zrobić, niż składać cały genom od nowa. Nie wiem ile kosztuje to obecnie, ale pamiętam, że na początku 2016 trąbiono z dumą, że koszt spadł poniżej $1000 za genom.
Można też nie sekwencjonować wcale, a jedynie genotypować. To znaczy za pomocą odpowiedniego testu (np. na tak zwanej mikromacierzy) sprawdza się obecność pewnych znanych z góry sekwencji. Tak działa np. firma 23andMe i wychodzi to bardzo tanio, ale znaleźć tak można tylko znane i opisane warianty. Rzadkiej czy unikalnej dla Tomasza Kurowskiego mutacji się nie znajdzie.
![]() |
chlor @tomasz-kurowski 26 czerwca 2024 19:21 |
26 czerwca 2024 20:13 |
Acha. A ten genom referencyjny to efekt badań jakiejś uśrednionej grupy tak dobranej by oddawała właściwości wszystkich ludzi na świecie?
![]() |
MarekBielany @tomasz-kurowski |
26 czerwca 2024 20:33 |
Cytuję:
Z praktyki dydaktycznej w dziedzinie bioinformatyki stosowanej dodam, że słowa profesora to również doskonała charakterystyka obu biegunów, z których przybywają do nas magistranci. Z jednej strony: biolodzy, którym zbrzydła praca w „mokrym” laboratorium, pragnący zająć się analizą danych biologicznych, a nie ich tworzeniem. Z drugiej: ludzie o wykształceniu technicznym, szukający ciekawych zastosowań dla swoich umiejętności informatycznych. Obie te grupy na jednym kierunku to już ekscytujący problem dydaktyczny. Tekst nie o tym, ale dziś mamy rozdanie dyplomów, więc pomyślałem o studentach.
To robi wrażenie !
![]() |
ArGut @tomasz-kurowski 26 czerwca 2024 19:00 |
26 czerwca 2024 21:54 |
>O eugenice "tylnymi drzwiami" mówi się czasem w kontekście diagnostyki prenatalnej albo preimplantacyjnej.
Zauważam to w myśli filozofii protestanckiej. W której to wczesną eutanazją nazywa się aborcję a późną aborcją eutanazję. Praca i branża, bioinformatyka, może być obciążona właśnie podobnymi "politycznymi naciskami", żeby takim czy innym badaniem, czy metodą uzasadnić usuwanie ze społeczności osobników, które straciły cenne dla reszty cechy i utylitarne funkcjonalności.
![]() |
zkr @tomasz-kurowski 26 czerwca 2024 18:53 |
26 czerwca 2024 23:51 |
Ciekawym obszarem zastosowan metod AI to przewidywanie drugorzedowej i trzeciorzedowej struktury bialek.
![]() |
tomasz-kurowski @chlor 26 czerwca 2024 20:13 |
27 czerwca 2024 09:55 |
Ludzki genom referencyjny (obecna wersja nazywa się GRCh38) pochodzi od więcej niż jednej osoby, ale wynikło to chyba głównie z praktycznych ograniczeń tak długotrwałego i rozsianego po świecie projektu, a nie z próby szerszego uwzględnienia ludzkiej różnorodności. Zazwyczaj genomy referencyjne, np. u roślin, tworzy się na podstawie pojedynczego osobnika. Zresztą u człowieka to też jest jakoś w 70% sekwencja jednego człowieka, a reszta złożona z parudziesięciu innych. W większości zresztą wszyscy mamy te same geny, po prostu różne ich wersje.
Tworzy się też tak zwane "pangenomy", które nie reprezentują jednej konkretnej sekwencji, ale są możliwie wyczerpującym zbiorem genów u jakiegoś gatunku. Dla człowieka też od niedawna jest taki.
![]() |
tomasz-kurowski @MarekBielany 26 czerwca 2024 20:33 |
27 czerwca 2024 09:58 |
Kierunek istnieje już jakieś dwadzieścia lat i działa sprawnie :)
![]() |
tomasz-kurowski @zkr 26 czerwca 2024 23:51 |
27 czerwca 2024 09:59 |
Tak jest. Temat pojawił się też w Krakowie przy okazji wykładu profesor Luchter-Wasylewskiej.
![]() |
tomasz-kurowski @ArGut 26 czerwca 2024 21:54 |
27 czerwca 2024 10:00 |
Celowo siedzę przy roślinach, gdzie więcej wolności badawczej i mniej problemów etycznych.
![]() |
tomasz-kurowski @tomasz-kurowski |
27 czerwca 2024 14:06 |
Jeszcze drobna, spóźniona refleksja przy lunchu. Wywiad z profesorem Knuthem pochodzi z (już nieistniejącej) strony (już nieistniejącej) lokalnej sieci księgarni i powstał zapewne przynajmniej częściowo w celach promocyjnych, bo rozmowa zaczyna się od dyskusji o niedawno wydanych książkach profesora, a sieć księgarni specjalizowała się właśnie w tego typu informatycznej tematyce.
Internet pamięta i nie wiadomo, kto i gdzie będzie nas za trzydzieści lat cytował :)
![]() |
MarekBielany @tomasz-kurowski 27 czerwca 2024 09:58 |
28 czerwca 2024 22:49 |
a był tak wyśmiewany (?), jako najlepszy chemik wśród elektroników i najlepszy elektronik wśród chemików.
P.S.
Cytat.