logo

Konferencja Klubu Fanów Samochodów Skoda

Re: wymiana oleju

Nie, 06 listopada 2011, 21:42

Re: wymiana oleju

Nie, 06 listopada 2011, 22:07

Re: wymiana oleju

Pon, 07 listopada 2011, 12:39

Re: wymiana oleju

Pon., 07 listopada 2011, 20:05

Re: wymiana oleju

Pon., 07 listopada 2011, 20:32

Ciekawy pomysł, jako pranie nici do gamy silników.

mój ichmo, jeśli prowadzisz wysokiej jakości (sprawdzony) olej o tolerancji producenta nie przekraczającej interwałów międzyserwisowych (około 300 godzin), wtedy system smarowania będzie normalny.

Re: wymiana oleju

Wt, 08 listopada 2011, 9:18

Re: wymiana oleju

Wt, 08 listopada 2011, 10:18

Czyli po każdym spłukaniu demontujesz silnik i przeprowadzasz inspekcję - jak czysta jest myta? nie? to też WIERZ, że jest prane przez 5 minut. zaczerwienienie, jak ja w tym przez 5 minut. nic naprawdę się nie umyło.

Twoje porównanie z przemywaniem się pięknie w kategoriach metaforycznych, szkoda umyć silnik, takie porównanie nie ma nic wspólnego.

Jeśli regularnie robisz pranie, nic się nie wydarzy. Pytający był zainteresowany pierwszym razem od trzech lat - zaproponowano mu wszystkie plusy i minusy oraz to, czy potrzebuje takiego koloru czy nie - niech zdecyduje.

Re: wymiana oleju

Wt, 08 listopada 2011, 10:54

Re: wymiana oleju

Wt, 08 listopada 2011, 11:19

Tak, to syntetyczne. Zalałem 5W30, ale w tym roku postanowiłem przełączyć się na 5W40. Dawniej przez dwa lata nigdy nie jadłem masła, ale w trzecim roku musiałem dodać 300 gramów, więc przerzuciłem się na grubsze masło.
Oto fragmenty z offu. strona powłoki:

Z jakiegoś powodu pierwszy koncentruje się na „długim odstępie między wymianami”, a drugi na „maksymalnym poziomie właściwości detergentu”.
Nie mówię, skąd mam liczbę 10 000 z miejsca, w którym ją dostałem - może przeczytałem gdzie, a może pomyślałem, że długi odstęp między wymianami to 15 000, podczas gdy wiele samochodów ma zwykle 10 000.

Re: wymiana oleju

Wt, 08 listopada 2011, 12:13

Re: wymiana oleju

Wt, 08 listopada 2011, 21:37

Czyli po każdym spłukaniu demontujesz silnik i przeprowadzasz inspekcję - jak czysta jest myta? nie? to też WIERZ, że jest prane przez 5 minut. zaczerwienienie, jak ja w tym przez 5 minut. nic naprawdę się nie umyło.

..W przeszłości było 7 lat mechaniki. Musiałem zdemontować / zmontować wiele różnych silników (była możliwość umieszczenia „eksperymentów” na temat przebiegu / rodzajów olejów / prań itp.). Są praktykujący przyjaciele. Tak przy okazji. Odnośnie zaczerwienienia i szkody wynikającej z ich używania lub nieużywania. Po pierwsze oczywiście WIARA. Poważnie, zdrowy rozsądek. Spłukiwanie to nie tyle „prania”, ile „neutralizuje próchnicę”, proces utleniania oleju i korozji części silnika. Przeczytaj dowolny test nowoczesnych olejów - jest coś takiego jak szybkość utleniania, liczba podstawowa itp. Są one bardzo różne dla różnych olejów, nawet tej samej klasy, zwłaszcza że procesy te są różne w różnych silnikach (przebieg, marka, styl jazdy). Tak, nowa porcja oleju może zneutralizować produkty utleniania, ale wtedy trzeba zmienić olej o około 50% obliczonego przedziału. Mam przyjaciół, którzy jeżdżą olejem napędowym (bez turbin) nie więcej niż 5000 km i zmieniają oleje oraz wodę mineralną (wszystkie dobre marki wciąż mają dobre oleje mineralne w produkcji, ale zarabiają głównie na tworzywach sztucznych). Bez mycia i idealnego stanu. Drugą zaletą prania jest to, że nie pozwalają one na starzenie się uszczelnień olejowych (jako „czernienie” gumy, osobiście nie lubię i nie używam, ale z tego wynikają rzeczywiste korzyści z opon). I masz całkowitą rację - za 5 minut (jeśli raz w życiu) naprawdę niczego nie myjesz. Oznacza to, że ma sens, jeśli jest regularnie. Jak prać. I jeszcze jeden ważny punkt. Po 15 minutach (gdy nic już nie kapie) pompuję strzykawkę 50 ml z rurką i pompuję około 200-250 ml „szlamu” (garaż / studzienka / światło / skrzynia korbowa w kierunku odpływu). W serwisie prawie nikt tego nie robi. W tej ostatniej części jest wiele szkodliwych rzeczy, które kończą Twój nowy olej wiele razy szybciej. Płukanie utrzymuje „kaku” zawieszone w procesie osuszania, a stary olej nie ma już takiego potencjału. Mam nadzieję, że właśnie to wyjaśniłem, nie próbowałem przekonać. DOBRY SZCZĘŚCIE!

Re: wymiana oleju

Wt, 08 listopada 2011, 21:45

Re: wymiana oleju

Śr, 09 listopada 2011, 15:43

Re: wymiana oleju

Śr, 09 listopada 2011, 16:13

Tutaj wszystko jest opisane wystarczająco szczegółowo.

Re: wymiana oleju

Śr, 09 listopada 2011, 17:26

250 ml to przesada. Strzykawkę pobiera się z kambikiem w kształcie litery L przymocowanym do końca strzykawki. Po tym, jak olej przestanie kapać, kamfora jest wylewana w dół dziobkiem w kształcie litery L, a pozostały olej jest wypompowywany. W serwisie, w którym dokonuję wymiany, użyj strzykawki o pojemności 20 cm3. Po spuszczeniu oleju konieczne jest wypompowanie 3-4 strzykawek, tj. około 60-80 ml oleju.

http://forum.skoda-club.ru/viewtopic.php?t=36594p=1445436

Czym jest dacron?

Dacron - tak w Stanach Zjednoczonych nazwał specjalne sztuczne utwardzanie tkaniny poliestrowej, uzyskiwane przez przetwarzanie surowca olejowego zawartego w samej naturze. W wielu innych krajach ten sam materiał otrzymał inne nazwiska, na przykład francuscy mistrzowie nazywali go tergal, japoński - tetoron, a rosyjski - lavsan, co odpowiada skrótowi laboratoryjnemu miejsca „pochodzenia” tego pomysłu włókienniczego.

Należy zauważyć, że jedną z charakterystycznych cech płótna Dacron jest jego wszechstronność produkcji, a mianowicie, że oprócz natychmiastowej wersji w 100% można go doskonale łączyć z innymi rodzajami włókien, takich jak wełna, len, wiskoza i wiele innych nici. Pod wieloma względami Dacron ma podobieństwa z nylonem, na przykład pod względem super wytrzymałości, ale w opóźnieniu i odrzuceniu wilgoci, ta ostatnia traci do niego. Ponadto tkanina dakronowa podczas ogrzewania poddawana jest wysokotemperaturowemu ogrzewaniu, dzięki czemu powierzchnia nie tylko idealnie się wyrównuje, ale także uzyskuje zdolność nie dopuszczania do przepływu powietrza przez siebie, ale także do utrzymania kształtu bez zmiany go nawet po częstych praniach.

Przy okazji, łatwo będzie zapewnić opiekę nad takim materiałem: zaleca się wybrać parametr temperatury prania, jak zwykle nie większy niż 40 ° C, aw procesie prasowania trzeba rozkładać rzeczy, jak powinno początkowo (dotyczy to fałd, jeśli są) Pomoże to lepiej naprawić model konkretnego produktu.

Surowce Dacron (lavsan) stały się niezbędne w wielu dziedzinach. Na przykład w biznesie żeglarskim nie ma sobie równych, również doskonałe liny i odzież wierzchnia. Nawet w wersji kombinowanej Dacron odgrywa dużą rolę w tworzeniu dywanów, zasłon i futer naturalnych. To najlepszy wybór dla miłośników aktywnego komfortu.

Zostaw komentarz

Kupiłem mojemu synowi kostium dla fizra od Dacrona. Jest wymazywany w normalnych warunkach, nie trzeba się obawiać, że się zrzuci. A jeśli dobrze jest spędzać czas, nie będziesz musiał później prasować. Ale wciąż głaszczę) Nie jestem taką złą gospodynią.

Praktyczny materiał, mój mąż i ja mamy dres. Dacron jest łatwo wymazywany, noszymy nasze garnitury po raz drugi, jako nowe, nie zużyte, bez peletów. Chcę dodać, że cena była mile zaskoczona. Jestem pewien, że ten materiał będzie nam służył przez długi czas. Radzę.

Już w młodości miałem jasnoszary garnitur dakronowy. Spojrzałem na niego w wieku 100 lat. Nadal pamiętam z ciepłem i miłością, do siebie, do mojej miłości.

Dresy z tej tkaniny są niezastąpione. Podawać długo i zapewniać komfort w niesprzyjających warunkach pogodowych. Na ogół jest jedną z moich ulubionych, i dzięki temu artykułowi udało mi się dowiedzieć o niej więcej.

I wiesz, wydaje mi się, że ten materiał jest wciąż syntetyczny, a latem, w upalne dni po prostu się smaży. Mam negatywny stosunek do materiałów syntetycznych i zawsze wolę kupować ubrania z naturalnych materiałów (bawełna, len, wełna)

Super tkanina! Kupiony u wszystkich krewnych, teraz polecam wszystkim przyjaciołom!

A jeśli to nie jest tajemnica, dlaczego kupiłeś taką tkaninę dla wszystkich krewnych? lub masz w domu specjalny mundur)))) śmieje się)))

Wspaniała tkanina Dacron! Kupiłam mojemu synowi pół roku temu dres! Nadal nosi, garnitur nie jest zużyty! Można łatwo prać. A najważniejsze jest to, że mój syn i ja to lubimy, więc wszystkim polecam ten materiał)

Dziękuję za cenne informacje o tej tkaninie, bardzo ją kocham i często ją noszę - super siła. Szczególnie interesujące były różne nazwy, w zależności od kraju, w którym jest produkowany. Jestem w różnych miastach i krajach i byłoby miło wiedzieć, o co zapytać sprzedawcę)

szuka tkaniny dacronowej z jasnoniebieskiego

Tutaj na pewno nie, zadzwoń do sklepów))
Dobra tkanina, mam z niej dres, wygodny, wygodny w bieganiu, idealnie leży na figurze, a tkanina nie zmywa się po umyciu.

http://tkanchik.ru/tkani/chto-takoe-dakron/

Akryl - co to jest?

Codziennie coraz częściej słyszymy słowo „akryl”: mężczyźni uczą się o tym materiale w sklepach ze sprzętem, a kobiety uczą się o nim w salonach kosmetycznych. Jaka jest wszechstronność tego niezwykłego materiału, który można stosować w zabiegach kosmetycznych i przy budowie budynków lub renowacji mieszkań?

Akryl to dwuskładnikowy materiał składający się z żywicy akrylowej (na bazie wody) i proszku mineralnego. Akryl jest szeroko stosowany w architekturze, prysznicach, panelach laminowanych, do okien, wanien i akwariów. Podobnie jak szkło, akryl jest przezroczysty, więc jest stosowany do drzwi i okien. W celu wykonania kąpieli do akrylu dodaje się niewielką ilość farby (głównie białą farbę, oczywiście dodaje się farbę i inne kolory).

Aby wykonać jedną kąpiel, należy użyć całego arkusza akrylu, który jest umieszczony w komorze próżniowej, jest podgrzewany, a następnie kąpiel jest wykonana z niezbędnego rozmiaru i kształtu. Uzyskany blankiet do kąpieli jest pokryty żywicą epoksydową zawierającą włókno szklane. Proces ten jest bardzo podobny do procesu nakładania odlewu na złamaną rękę lub nogę. Do produkcji wanien stosowano blachę akrylową o grubości od 4 do 8 milimetrów. Jeśli użyjesz cieńszego arkusza akrylu, kąpiel będzie mniej trwała - wystarczy jedno głębokie zadrapanie i kąpiel zostanie uszkodzona. Tylko pozbawieni skrupułów producenci do produkcji wanien stosują arkusz akrylowy cieńszy niż 4 milimetry, więc kupując wannę akrylową, zwróć szczególną uwagę na producenta, który wyprodukował ten produkt.

Ponieważ produkcja akrylu jest dość nowym postępem technologicznym, uważa się ją za produkcję przyjazną dla środowiska. Akryl to bardzo trwały materiał, który przetrwa przez długi czas. Jedną z głównych zalet materiału jest jego odporność na uderzenia. Jeśli kupiłeś kabinę prysznicową z akrylowymi przezroczystymi drzwiami i przypadkowo upadniesz na nią - drzwi nie pękną, w przeciwieństwie do szkła. Akryl jest znacznie lżejszy niż szkło. Jeśli zdecydujesz się na uderzenie kijem w drzwi akrylowe, nie pęknie, ale po prostu odbija się na bok i nie łamie go.

Wiele osób pyta: akryl to materiał chemiczny, co się stanie, jeśli wybuchnie pożar? Akryl jest materiałem ognioodpornym, który nie kapie podczas pożaru, nie pali się jak prosty plastik podczas zapłonu.

Ponadto akryl ma właściwości utrwalania ciepła, w akrylowych wannach woda zatrzymuje ciepło przez długi czas. Materiał akrylowy może wytrzymać temperatury od - 30 stopni i do 160 stopni ciepła. Z biegiem czasu akryl nie zmienia koloru, nie wydaje się żółty i nie pojawia się pęknięcie. Główną cechą tego materiału jest to, że można mu nadać absolutnie dowolny kształt. Ta właściwość materiału umożliwiła dokonanie innowacyjnego skoku w produkcji wanien o różnych kształtach i rozmiarach, które mogą być kwadratowe, z cienkimi liniami reliefowymi, owalnymi, okrągłymi lub trójkątnymi.

Akryl jest bardzo wygodnym materiałem do produkcji kąpieli, ponieważ na jego powierzchni nie ma porów, w których gromadzą się mikroby, pleśń i różne bakterie w przyszłości. Akryl jest bardzo łatwy do czyszczenia, pojawia się zarysowanie, które można łatwo szlifować, a wanna znów będzie wyglądać jak nowa. Powierzchnia wanien akrylowych jest błyszcząca, ale z czasem połysk może zniknąć. Łatwo jest wrócić, jeśli polerujesz powierzchnię wanny.

Dlatego akryl jest nietoksyczny, przyjazny dla środowiska, trudnopalny i bardzo łatwy w użyciu.

Codziennie coraz częściej słyszymy słowo „akryl”: mężczyźni uczą się o tym materiale w sklepach ze sprzętem, a kobiety uczą się o nim w salonach kosmetycznych. Jaka jest wszechstronność tego niezwykłego materiału, który można stosować w zabiegach kosmetycznych i przy budowie budynków lub renowacji mieszkań?

Akryl to dwuskładnikowy materiał składający się z żywicy akrylowej (na bazie wody) i proszku mineralnego. Akryl jest szeroko stosowany w architekturze, prysznicach, panelach laminowanych, do okien, wanien i akwariów. Podobnie jak szkło, akryl jest przezroczysty, więc jest stosowany do drzwi i okien. W celu wykonania kąpieli do akrylu dodaje się niewielką ilość farby (głównie białą farbę, oczywiście dodaje się farbę i inne kolory).

Aby wykonać jedną kąpiel, należy użyć całego arkusza akrylu, który jest umieszczony w komorze próżniowej, jest podgrzewany, a następnie kąpiel jest wykonana z niezbędnego rozmiaru i kształtu. Uzyskany blankiet do kąpieli jest pokryty żywicą epoksydową zawierającą włókna szklane. Proces ten jest bardzo podobny do procesu nakładania odlewu na złamaną rękę lub nogę. Do produkcji wanien stosowano blachę akrylową o grubości od 4 do 8 milimetrów. Jeśli użyjesz cieńszego arkusza akrylu, kąpiel będzie mniej trwała - wystarczy jedno głębokie zadrapanie i kąpiel zostanie uszkodzona. Tylko pozbawieni skrupułów producenci do produkcji wanien stosują arkusz akrylowy cieńszy niż 4 milimetry, więc kupując wannę akrylową, zwróć szczególną uwagę na producenta, który wyprodukował ten produkt.

Ponieważ produkcja akrylu jest dość nowym postępem technologicznym, uważa się ją za produkcję przyjazną dla środowiska. Akryl to bardzo trwały materiał, który przetrwa przez długi czas. Jedną z głównych zalet materiału jest jego odporność na uderzenia. Jeśli kupiłeś kabinę prysznicową z akrylowymi przezroczystymi drzwiami i przypadkowo upadniesz na nią - drzwi nie pękną, w przeciwieństwie do szkła. Akryl jest znacznie lżejszy niż szkło. Jeśli zdecydujesz się na uderzenie kijem w drzwi akrylowe, nie pęknie, ale po prostu odbija się na bok i nie łamie go.

Wiele osób pyta: akryl to materiał chemiczny, co się stanie, jeśli wybuchnie pożar? Akryl jest materiałem ognioodpornym, który nie kapie podczas pożaru, nie pali się jak prosty plastik podczas zapłonu.

Ponadto akryl ma właściwości utrwalania ciepła, w akrylowych wannach woda zatrzymuje ciepło przez długi czas. Materiał akrylowy może wytrzymać temperatury od - 30 stopni i do 160 stopni ciepła. Z biegiem czasu akryl nie zmienia koloru, nie wydaje się żółty i nie pojawia się pęknięcie. Główną cechą tego materiału jest to, że można mu nadać absolutnie dowolny kształt. Ta właściwość materiału umożliwiła dokonanie innowacyjnego skoku w produkcji wanien o różnych kształtach i rozmiarach, które mogą być kwadratowe, z cienkimi liniami reliefowymi, owalnymi, okrągłymi lub trójkątnymi.

Akryl jest bardzo wygodnym materiałem do produkcji kąpieli, ponieważ na jego powierzchni nie ma porów, w których gromadzą się mikroby, pleśń i różne bakterie w przyszłości. Akryl jest bardzo łatwy do czyszczenia, pojawia się zarysowanie, które można łatwo szlifować, a wanna znów będzie wyglądać jak nowa. Powierzchnia wanien akrylowych jest błyszcząca, ale z czasem połysk może zniknąć. Łatwo jest wrócić, jeśli polerujesz powierzchnię wanny.

Dlatego akryl jest nietoksyczny, przyjazny dla środowiska, trudnopalny i bardzo łatwy w użyciu.

http://www.mega-santehnika.ru/akril-ehto-chto-takoe

Szkło akrylowe i poliwęglan - co to jest

Szkło akrylowe charakteryzuje się takimi cechami jak:

  • niska waga
  • wysoka przejrzystość
  • Obróbka odbywa się z taką samą łatwością jak obróbka drewna
  • możliwość nadawania temu materiałowi różnorodnych form metodami termicznymi bez naruszenia
  • właściwości optyczne i doskonałe odwzorowanie szczegółów formy

Wszystkie te cechy wpłynęły na szybki rozwój technologii w produkcji szkła organicznego i ich szerokie zastosowanie.

Podobnie jak szkło akrylowe, poliwęglan jest przezroczystym materiałem o znacznie wyższej lepkości i elastyczności, a co za tym idzie najwyższej odporności na uderzenia. Pod względem właściwości mechanicznych poliwęglan nie ma sobie równych wśród podobnych materiałów.

Podobieństwa i różnice tych dwóch materiałów odpowiadają wielu obszarom zastosowań:

Architektura i budownictwo

Formowane poszycie, przeszklenia (okna i zadaszenia), różnego rodzaju ogrodzenia ochronne i markizy.

Szklarnie szklarskie, szklarnie, szklarnie, patia i oranżerie.

Projekty drabin, parapety, parapety, ścianki działowe, parowane, półki, witryny, akwaria itp.

Oświetlenie i reklama świetlna

Oprawy oświetleniowe, kasetony i litery.

Sprzęt medyczny i laboratoryjny

Prysznice, wanny itp.

Pokrowce ochronne na sprzęt, szyby w samolotach, pojazdach lądowych i wodnych.

Przezroczysta lub półprzezroczysta (bezbarwna lub kolorowa) termoplastyczna pochodna żywic akrylowych. Głównym składnikiem w jego składzie jest PMMA, w czystej postaci składającej się z trzech pierwiastków chemicznych - węgla, wodoru i tlenu. Metakrylan metylu wytwarza się przez stopniową polimeryzację i polikondensację monomeru metakrylanu metylu. W procesie polimeryzacji cząsteczki monomeru są związane w „gigantycznej” cząsteczce polimeru, która jest tworzywem sztucznym. Cząsteczka PMMA jest łańcuchem polimerowym, który może być liniowy, rozgałęziony, a także zorganizowany w sieć trójwymiarową.

W grupie polimerów polimetakrylan metylu odnosi się do tworzyw termoplastycznych. Tworzywa termoplastyczne charakteryzują się tym, że w temperaturze pokojowej są miękkim lub twardym tworzywem sztucznym i składają się z liniowych lub rozgałęzionych makrocząsteczek. Po podgrzaniu termoplasty miękną i płyną, a po ochłodzeniu twardnieją. Polimery tej grupy topiącej są odkształcalne plastycznie i rozpuszczalne. Bezpostaciowe tworzywa termoplastyczne charakteryzują się całkowicie nieregularną strukturą łańcucha (struktura bawełnianego wacika). Oprócz amorficznego, częściowo krystaliczny termoplast ma skrystalizowane obszary, w których liniowe cząsteczki są ułożone równolegle.

Liniowy poliester węglowy. Ten materiał to niezwykłe połączenie wysokiej odporności na ciepło, wysokiej wytrzymałości i przejrzystości. Jego właściwości zmieniają się nieznacznie wraz ze wzrostem temperatury. Właściwości niskiej temperatury są również doskonałe. Odporność na rozrywanie i jej rozprzestrzenianie się jest bardzo wysoka. Ten materiał ma również wysoką trwałość podczas przepychania.

PC jest odporny na rozcieńczone kwasy, ale nie jest odporny na alkalia i zasady. Odporny na węglowodory alifatyczne, alkohole, detergenty, oleje i tłuszcze, rozpuszczalny w chlorowanych węglowodorach (chlorek metylenu), częściowo rozpuszczalny w węglowodorach aromatycznych, ketonach i estrach. Substancje te działają jak środki krakujące, gdy temperatura wzrasta. Poliwęglan jest wysoce przepuszczalny dla gazu i pary wodnej. Wyjątkową cechą poliwęglanu jest jego stabilność wymiarowa. Nawet w wysokich temperaturach materiał ten zapewnia minimalny skurcz. Ponadto, podczas korzystania z komputera PC, należy wziąć pod uwagę jego niestabilność wobec ekspozycji na promieniowanie UV. Materiał, który nie ma specjalnej ochrony, jest podatny na żółknięcie, aw rezultacie na naruszenie właściwości optycznych.

Cechy - zalety i wady

Właściwości szkła akrylowego czynią go materiałem wszechstronnym, którego możliwości wykraczają daleko poza ogólnie przyjęte obszary zastosowania. Brak odpowiedniego zabarwienia i przezroczystości daje możliwość zapewnienia wysokiej przezroczystości (odbija się tylko 8% padającego światła, a 92% materiału jest pomijane). Należy zauważyć, że szkło krzemianowe przepuszcza mniej światła. W przypadkach, gdy wysoka transmisja światła jest niepożądana, można użyć białego lub malowanego materiału.

Brak zniekształceń optycznych zapewnia możliwość stosowania szkła organicznego w produkcji soczewek kontaktowych i szklanego transportu lotniczego. W tych przypadkach poliwęglan stosuje się głównie ze względu na jego wysoką wytrzymałość na rozciąganie i dodatkową odporność na tworzenie się fragmentów. Ponadto szkło akrylowe jest wysoce odporne na starzenie i działanie czynników atmosferycznych. Jego właściwości mechaniczne i optyczne nie zmieniają się w zauważalny sposób podczas długotrwałego wietrzenia. PMMA jest odporny na promieniowanie UV i nie wymaga specjalnej ochrony. PC o przedłużonej ekspozycji na promienie ultrafioletowe ma tendencję do żółknięcia, więc istnieje potrzeba nałożenia po jednej stronie arkusza materiału specjalnej powłoki ochronnej lakieru, która jest wykonywana w czasie produkcji przez współwytłaczanie. To ta strona z powłoką odporną na promieniowanie UV powinna być narażona na niepożądany czynnik, a nie odwrotnie.

Szkło akrylowe można obrabiać i formować na gorąco.

Podczas przetwarzania szkła akrylowego należy wziąć pod uwagę następujące cechy:

  • Tworzywa termoplastyczne charakteryzują się dość wysokim liniowym współczynnikiem termicznym.
  • rozszerzenia;
  • przepuszczalność pary i gazu (zdolność do pochłaniania pary wodnej ze środowiska i parowania przy jednoczesnym zmniejszeniu wilgotności względnej);
  • wrażliwość na uszkodzenia mechaniczne (zarysowania);
  • podatność na promieniowanie cieplne.

Z punktu widzenia ekologii szkło organiczne jest całkowicie bezpieczne.

Produkty ze szkła akrylowego dzielą się na dwie główne grupy w zależności od metody produkcji - odlewania i wytłaczania. Sposób, w jaki produkt jest wytwarzany, znacząco wpływa na zachowanie materiału podczas pracy.

W tym przypadku, ponieważ stosowane formy są połączone ze sobą taflami szkła o wymaganym rozmiarze. PMMA wlewa się między płytki i utwardza ​​podczas procesu polimeryzacji. Ze względu na fakt, że powierzchnia szkła jest gładka i nie ma porów, jak również ze względu na różnice współczynników liniowej rozszerzalności cieplnej dwóch materiałów, gotowy arkusz PMMA jest łatwo oddzielany, a forma szklana może być ponownie wykorzystana. Produkty z wnękami można uzyskać przez odlewanie odśrodkowe. W tym przypadku ciekły PMMA wlewa się do obracających się rur, rozprowadzanych za pomocą siły odśrodkowej wzdłuż ścian i utwardza ​​się na powierzchni formy.

Ponieważ powyższy proces jest bardzo pracochłonny i czasochłonny, zaproponowano ciągły proces wytłaczania, który jest opłacalną alternatywą. Polimer w stanie ziarnistym jest ładowany do wytłaczarki, gdzie jest ogrzewany do stanu lepkiego-ciekłego, a następnie wytłaczany przez dyszę wytłaczającą. Ostateczna grubość gotowego produktu zależy od wielkości luki w nim. Ta metoda wytwarza „niekończące się” profile, rury i arkusze (zarówno kompaktowe, jak i wieloczęściowe).

Produkty wytwarzane na różne sposoby różnią się właściwościami mechanicznymi, stabilnością wymiarową z różnicami temperatur, odpornością na pękanie z powodu naprężeń wewnętrznych, a także jakością powierzchni. Powierzchnia wytłaczanego szkła akrylowego może się różnić od odlewu z powodu naruszeń wytłaczania. Tak więc stopione szkło organiczne ma wyższą jakość. Z tego powodu wszystkie urządzenia sanitarne zgodne z normą CEN są wykonane z materiału odlewanego.

Jak wspomniano powyżej, produkty ze szkła akrylowego można wytwarzać na dwa sposoby, które dobiera się w zależności od pożądanego produktu końcowego. Kompaktowe arkusze PMMA są produkowane zarówno przez odlewanie, jak i wytłaczanie. Podczas gdy wytłaczane szkło akrylowe ma ograniczoną grubość (min. 2 mm, maks. 20 mm), odlewany materiał może być produkowany jako mała grubość (1 mm) i dość masywny. Materiał wytłaczany jest dostępny w szerokości 2 mi długości 3 m. Różne standardowe rozmiary odlewanego szkła akrylowego można znaleźć w katalogach producentów.

Rury PMMA są dostępne zarówno w wersji wytłaczanej, jak i odlewanej (odlewanie odśrodkowe). Minimalna średnica zewnętrzna wytłaczanych rur wynosi 5 mm przy grubości ścianki 1 mm, podczas gdy rury odlewane są wykonane tylko z średnicy 25 mm, a ścianki są pogrubione od 2 mm.

http://www.yusto.ru/stati/akrilovoe-steklo-i-polikarbonat-chto-eto-takoe/

Czym jest LPC?

Każdy wie, że każdy samochód składa się z węzłów, jednostek i części. LCP - lakier samochodowy - nie można przypisać żadnej z powyższych kategorii. LPC jest integralną częścią ciała, która w rzeczywistości jest jedną z najważniejszych części samochodu. To z malowanego korpusu, ustawiającego go na głównej linii montażowej, rozpoczyna się montaż samochodu. A jeśli w lakierze nadwozia zostanie wykryta wada produkcyjna, sam korpus zostanie uznany za wadliwy.

Stosowanie powłok malarskich jest nadal jednym z najbardziej powszechnych i skutecznych sposobów ochrony metalu przed korozją. To jest jego główny cel. Dodatkowo, chroniąc metalową powierzchnię samochodu przed korozją, lakier nadaje samochodowi estetyczny wygląd i jest elementem wystroju samochodu. Jednym z głównych kryteriów skuteczności LCP jest jego trwałość, tj. zdolność do utrzymania ich właściwości ochronnych do stanu granicznego.

Trwałość powłoki zależy od wielu czynników, w tym:

  • właściwości fizyko-chemiczne i mechaniczne lakieru;
  • poziom przygotowania powierzchni przed malowaniem;
  • poprawność wyboru systemów powłok malarskich w określonych warunkach pracy.

Czym jest system LPC?

Zazwyczaj lakier na karoserii samochodu jest powłoką wielowarstwową i składa się z warstw wierzchnich, pośrednich i podkładowych. Wszystko to nazywa się systemem LPC. Każda warstwa systemu (bez względu na to, czy jest to lakier, farba, emalia, kit czy podkład) jest zaprojektowana do wykonywania określonej funkcji.

A jak dobrze łączą się warstwy w systemie LPC, zależy to od jego żywotności jako całości. Jeżeli kompatybilność warstw powłoki malarskiej jest niezadowalająca, to nawet przy trwałości użytkowej mogą wystąpić takie uszkodzenia, jak łuszczenie się, pęcherze, pęknięcia, które powodują uszkodzenia korozyjne, a żywotność powłoki jest znacznie zmniejszona.

Według statystyk, jakość przygotowania powierzchni przed malowaniem nadwozia wpływa na żywotność materiałów lakierniczych w 70% przypadków, w 15% poprawność wyboru systemów lakierniczych, w 10% zgodność z technologią formowania lakieru i tylko 5% jakości materiału lakierniczego wybrany do pokrycia.

Jak się ma LPC?

Powłoki malarskie powstają w wyniku tworzenia się powłoki (utwardzania lub suszenia) materiałów lakierniczych nakładanych na powierzchnię karoserii samochodowej lub na podłoże. Z kolei farby i lakiery mogą być zróżnicowane i różnić się zarówno charakterem chemicznym, jak i składem środka tworzącego film.

Zgodnie z przyjętym GOST 9825, materiały do ​​malowania są zależne od rodzaju i rodzaju środka do tworzenia folii, a także od ich podstawowego zastosowania. Skład chemiczny lakieru jest klasyfikowany według grup.

W zależności od zastosowania i przeznaczenia, farby i powłoki lakiernicze mogą być: konserwujące, odporne na ciepło, odporne chemicznie, benzo, wodne, atmosferyczne, olejoodporne, a także do celów specjalnych (przeznaczone na przykład do malowania podwodnych części statków morskich). Z wyglądu (obecność defektów, falistość powierzchni, stopień połysku) powłoki malarskie są klasyfikowane do 7 odrębnych kategorii.

Popularność ochrony antykorozyjnej przy użyciu powłok lakierniczych wynika również z faktu, że przy ich wyborze zawsze istnieją różne opcje schematu powlekania, w zależności od zdolności produkcyjnej, operacyjnej i ekonomicznej lakieru, która pozwala znaleźć optymalną kombinację. Optymalne wykorzystanie lakieru jest możliwe tylko dzięki dogłębnemu zrozumieniu i uwzględnieniu wszystkich zjawisk mechanicznych i chemiczno-fizycznych, które występują w systemie lakierniczym, zarówno po jego otrzymaniu, jak iw okresie eksploatacji powłok malarskich. Pomoże to zrozumieć tylko profesjonalistów - specjalistów od lakierów. Wybierz najlepszą kombinację ochrony antykorozyjnej karoserii samochodu - w ich bezpośredniej kompetencji.

Jak chronić lakier przed uszkodzeniem?

Ostatnio technologia posunęła się do przodu i wzrosła liczba sposobów ochrony lakieru samochodu. Na przykład, wiele samochodów klasy premium już w fabryce jest pokrytych szczególnie trwałym i odpornym na zewnętrzne czynniki nano-ceramicznym lakierem. W przypadku uszkodzenia takiego lakieru znacznie trudniej i dłużej z nim pracować, unikalny jednostopniowy system polerowania może znacznie ułatwić polerowanie lakierów nanoceramicznych.

Jeśli twój samochód nie należy do tego segmentu, to nie ma znaczenia. Lakier może być chroniony przez okres do 1 roku lub dłużej, a jeśli wyjeżdżasz do Europy lub w pobliżu za granicę i tam jeździsz samochodem, czas potrzebny na zabezpieczenie wzrasta o 2-3 razy (zależy to od stanu dróg używanych w myjniach samochodowych w twoim regionie chemii warunki pogodowe). Ochrona lakieru samochodowego, powierzchni chromowanych i malowanego plastiku jest ochroną i jest kompozycją, która po nałożeniu wprowadza wiązanie molekularne z cząsteczkami powierzchniowymi, na które jest nakładana, tworząc razem z nimi mocną sieć molekularną, wyglądem przypominającą molekularną sieć lakierów nanoceramicznych Mercedesa Benz.

Jeśli potrzebujesz chronić swój samochód, skontaktuj się z naszą firmą „Mobiklin”, dzwoniąc pod numer (8452) 77-57-97 lub możesz skonsultować się z naszymi ekspertami na stronie.

http://mobiclean.ru/stati/polirovka/chto-takoe-lkp

Czym jest anodowane aluminium i jak anodowane są profile aluminiowe

Sam glin w normalnych warunkach atmosferycznych jest pokryty warstwą tlenku. Jest to naturalny proces pod wpływem tlenu. Jest to praktycznie niemożliwe, ponieważ film jest zbyt cienki, prawie wirtualny. Zauważono jednak, że posiada pewne niezwykłe właściwości, które zainteresowały inżynierów i naukowców. Później byli w stanie wyprodukować anodowane aluminium za pomocą środków chemicznych.

Warstwa tlenku jest twardsza niż sama aluminium i dlatego chroni ją przed wpływami zewnętrznymi. Odporność na zużycie części aluminiowych z powłoką tlenkową jest znacznie wyższa. Ponadto organiczne barwniki są znacznie lepiej umieszczone na powlekanej powierzchni, dlatego mają bardziej porowatą strukturę, co zwiększa przyczepność. I to jest bardzo ważne dla produktów z późniejszą obróbką dekoracyjną.

Tak więc badania inżynieryjne i eksperymenty doprowadziły do ​​wynalezienia metody elektrochemicznego formowania warstwy tlenku na powierzchni aluminium i jego stopów, które nazywano anodowym utlenianiem aluminium, jest odpowiedzią na pytanie „co jest anodowaniem”.

Anodowane aluminium jest bardzo szeroko stosowane w różnych dziedzinach. Wyroby pasmanteryjne z powłokami dekoracyjnymi, metalowymi ramami okiennymi i drzwiowymi, częściami statków morskich i podwodnych, przemysłem lotniczym, naczyniami kuchennymi, tuningiem samochodowym, wyrobami budowlanymi z aluminium nie są kompletną listą.

Czym jest anodowanie

Jak anodować aluminium? Anodowanie jest procesem, w którym warstwa folii tlenkowej jest wytwarzana na powierzchni części aluminiowej. W procesie elektrochemicznym powlekana część odgrywa rolę anody, dlatego proces ten nazywa się anodowaniem. Najczęstszą i najprostszą metodą jest rozcieńczony kwas siarkowy pod wpływem prądu elektrycznego. Stężenie kwasu wynosi do 20%, moc prądu stałego wynosi 1,0 - 2,5 A / dm 2, prąd przemienny wynosi 3,0 A / dm 2, temperatura roztworu wynosi 20 - 22 ° C.

Kiedy jest anoda, musi być katoda. W specjalnej kąpieli galwanicznej, w której zachodzi proces anodowania, szczegóły anod są ustalone lub zawieszone w środku. Katody umieszcza się wzdłuż krawędzi wanny - płyt ołowiu lub chemicznie czystego aluminium, a powierzchnia anod powinna w przybliżeniu odpowiadać powierzchni katod. Pomiędzy katodami i anodami koniecznie musi być wolna, raczej szeroka warstwa elektrolitu.

Wieszaki, na których przymocowane są powlekane części, są korzystnie wykonane z tego samego materiału, z którego wykonane są anody. Nie zawsze jest to możliwe, dlatego dozwolone są stopy aluminium lub duraluminium. W miejscach mocowania anod należy zapewnić ścisły kontakt. Uchwyty pozostają odkryte, więc w przypadku produktów dekoracyjnych miejsca te muszą zostać wybrane i wynegocjowane w procesie. Zawiesiny nie są usuwane podczas prania i późniejszego chromowania, pozostają na szczegółach aż do końca całego procesu.

Czas zależy od rozmiaru pokrytych części. Małe otrzymują warstwę o grubości 4–5 mikronów już po 15–20 minutach, a większe powlekają w wannie do 1 godziny.

Po wyjęciu z kąpieli anodowej części przemywa się bieżącą wodą, a następnie zobojętnia w oddzielnej kąpieli 5% roztworem amoniaku i ponownie przemywa wodą wodociągową.

Film stanie się bardziej trwały, jeśli wykonasz dodatkowe wykończenie. Najlepiej zrobić to w roztworze dwuchromianu potasu (pik chromu) o stężeniu około 40 g / lw temperaturze około 95 ° C przez 10–30 minut. Szczegóły na końcu uzyskują oryginalny zielonkawo-żółty odcień. W ten sposób uzyskuje się anodową ochronę przed korozją.

Zastosowanie innych elektrolitów do uzyskania anodowanego aluminium

Istnieją inne elektrolity do wytwarzania warstwy tlenku na aluminium, podstawy procesu anodowania pozostają takie same, zmieniają się tylko bieżące tryby, czas procesu i właściwości powłoki.

  • Elektrolit szczawianowy. Jest to roztwór kwasu szczawiowego 40–60 g / l. W wyniku anodowania folia pozostawia żółtawy kolor, ma wystarczającą wytrzymałość i doskonałą plastyczność. Gdy zakrzywiona powierzchnia jest wygięta, słychać charakterystyczne trzaski folii, ale nie traci ona swoich właściwości. Wadą jest słaba porowatość i słaba przyczepność w porównaniu z elektrolitem kwasu siarkowego.
  • Elektrolit ortofosforowy. Roztwór kwasu fosforowego 350-550 g / l. Powstała folia jest bardzo słabo zabarwiona, ale jest doskonale rozpuszczalna w niklowym i kwaśnym elektrolicie miedzi podczas osadzania tych metali, to znaczy jest stosowana głównie jako etap pośredni przed powlekaniem miedzią lub niklowaniem.
  • Chromowy elektrolit. Roztwór bezwodnika chromowego 30–35 g / l i kwas borowy 1–2 g / l. Powstały film ma piękny szaro-niebieski kolor i jest podobny do emaliowanej powierzchni, stąd nazwa ematalirovaniya. Obecnie ematalizacja jest bardzo szeroko stosowana i ma wiele innych opcji składu elektrolitu, opartych na innych kwasach.
  • Mieszany elektrolit organiczny. Roztwór zawiera kwas szczawiowy, siarkowy i sulfosalicylowy. Kolor folii różni się w zależności od gatunku stopu anody, właściwości powłoki pod względem wytrzymałości i odporności na zużycie są bardzo dobre. Anodowanie w tym elektrolicie może nie mniej skutecznie aluminiować części w dowolnym celu.

Zalety stosowania profilu anodowanego aluminium

Anodowany profil aluminiowy służy do produkcji fasad wentylowanych, schodów instalacyjnych, poręczy. Folia ochronna nie tylko chroni metal, ale także ręce przed szarym pyłem aluminiowym. Kobiety będą chciały wiedzieć, że aluminiowe igły dziewiarskie również anodują, dzięki czemu uchwyty rzemieślnicze nie brudzą się. Ale w konstrukcji z anodyzowanego aluminium zostało zastosowane.

Anodowanie profilu aluminiowego jest stosowane podczas montażu wentylowanych fasad w zawiasach w środowiskach silnie korozyjnych. Środowiska bardzo agresywne to obszary nadmorskie (ze względu na wysoką zawartość soli w powietrzu) ​​lub obszary w pobliżu fabryk. Miasta liczące milion ludzi rzadko mają bardzo agresywne środowisko, często średnio agresywne. Przypisanie klasy agresywności następuje na poziomie służb specjalnych sanitarnego nadzoru epidemiologicznego w koordynacji z administracją miasta - konieczne jest ich poszukiwanie w swoich rezolucjach.

Inną ważną zaletą jest kolorowanie anodowanej powierzchni. Jest to prawdopodobnie główna zaleta opisanego procesu. Pojawiła się możliwość dekoracyjnej obróbki produkowanych wyrobów aluminiowych, co od razu doprowadziło do dużego rozpowszechnienia jej stosowania.

Wysoka odporność na zużycie folii anodowej przyczyniła się do wzrostu zawartości anodowanych części aluminiowych w całkowitej objętości przedsiębiorstw przemysłu stoczniowego i lotniczego.

Elewacje wielu obiektów olimpijskich w Soczi wykonane są w technologii wentylowanej elewacji na anodowanych systemach aluminiowych.

http://bazafasada.ru/fasad-zdanij/anodirovanie-alyuminiya.html

„Nanotechnologia”, „nanonauka” i „nanoobjects”: co oznacza „nano”?

Lewon B. Piotrowski,
Instytut Badawczy Medycyny Doświadczalnej SZO RAMS, Petersburg
Evgeny Kats,
Uniwersytet. Ben-Gurion na Negewie, Izrael
„Ekologia i życie” №8, №9 2010

Natura jest ciągła, a każda definicja wymaga ustanowienia pewnych granic. Dlatego sformułowanie definicji jest niewdzięcznym zadaniem. Niemniej jednak należy to zrobić, ponieważ jasna definicja pozwala oddzielić jedno zjawisko od drugiego, ujawnić znaczne różnice między nimi i tym samym głębiej zrozumieć zjawiska. Dlatego celem tego eseju jest próba zrozumienia znaczenia dzisiejszych terminów mody z przedrostkiem „nano” (z greckiego słowa „karzeł”) - „nanonauka”, „nanotechnologia”, „nano-obiekt”, „nanomateriał”.

Pomimo faktu, że te kwestie o różnym stopniu głębi były wielokrotnie omawiane w specjalnej i popularnej literaturze naukowej, analiza literatury i osobistych doświadczeń pokazuje, że jak dotąd w szerokich kręgach naukowych, nie wspominając o nienaukowych, nie ma jasnego zrozumienia, jak sam problem i definicje. Dlatego spróbujemy zdefiniować wszystkie powyższe terminy, koncentrując uwagę czytelnika na znaczeniu podstawowej koncepcji „nanoobiektu”. Zachęcamy czytelnika do wspólnego zastanowienia się, czy istnieje coś zasadniczo odróżniającego nanoobiekty od ich większych i mniejszych „braci”, którzy „zamieszkują” otaczający nas świat. Ponadto zapraszamy go do wzięcia udziału w serii eksperymentów myślowych na temat projektowania nanostruktur i ich syntezy. Spróbujemy również wykazać, że w interwałach w nanoskali zmienia się natura oddziaływań fizycznych i chemicznych, a dzieje się to dokładnie na tej samej części skali wymiarowej, gdzie przechodzi granica między naturą żywą i nieożywioną.

Ale po pierwsze, skąd się to wszystko wzięło, dlaczego wprowadzono przedrostek „nano”, który ma decydujące znaczenie dla klasyfikacji materiałów jako nanostruktur, dlaczego nanonauka i nanotechnologia wyróżniają się w oddzielnych obszarach, co obejmuje ten wybór (i czy) odnosi się do prawdziwie naukowych podstaw?

Co to jest „nano” i gdzie wszystko się zaczęło

Jest to przedrostek, który pokazuje, że wartość początkowa powinna zostać zmniejszona o miliard razy, to znaczy podzielona przez jeden z dziewięcioma zerami - 1 000 000 000. Na przykład 1 nanometr to miliardowa część metra (1 nm = 10–9 m). Aby wyobrazić sobie, jak małe jest 1 nm, zróbmy następujący eksperyment myślowy (rys. 1). Jeśli zmniejszymy średnicę naszej planety (12 750 km = 12,75 × 10 6 m × 10 7 m) 100 milionów (10 8) razy, otrzymamy około 10–1 m. Jest to rozmiar w przybliżeniu równy średnicy piłki nożnej (standard Średnica piłki nożnej wynosi 22 cm, ale w naszej skali różnica ta jest nieznaczna, dla nas 2,2 × 10 –1 m ≈ 10 –1 m). Zmniejszmy teraz średnicę piłki nożnej w tych samych 100 milionach (10 8) razy i dopiero teraz otrzymamy rozmiar nanocząstki równy 1 nm (w przybliżeniu średnicę cząsteczki węgla fullerenu C60, w kształcie podobnym do piłki nożnej - patrz rys. 1).

Warto zauważyć, że prefiks „nano” był używany w literaturze naukowej przez długi czas, ale do wyznaczania daleko od nanoobiektów. W szczególności dla obiektów, których rozmiar jest miliardami razy większy niż 1 nm - w terminologii dinozaurów. Nanotyranozaury (nanotyrran) i nanozaury (nanozaury) nazywane są dinozaurami karłowatymi, których wymiary wynoszą odpowiednio 5 i 1,3 m. Ale są one naprawdę „karłami” w porównaniu z innymi dinozaurami, których wymiary przekraczają 10 m (do 50 m), a ich waga może osiągnąć 30–40 ton i więcej. Ten przykład podkreśla, że ​​przedrostek „nano” nie ma fizycznego znaczenia, a jedynie wskazuje skalę.

Ale teraz za pomocą tego urządzenia oznaczają nową erę w rozwoju technologii, czasami nazywaną czwartą rewolucją przemysłową, erą nanotechnologii.

Często uważa się, że początek ery nanotechnologii został ustanowiony w 1959 r. Przez Richarda Feynmana w wykładzie „Jest dużo miejsca na dole” („Tam jest mnóstwo miejsca”). Głównym postulatem tego wykładu było to, że z punktu widzenia podstawowych praw fizyki, autor nie widzi przeszkód do pracy na poziomie molekularnym i atomowym, manipulowania poszczególnymi atomami lub cząsteczkami. Feynman powiedział, że za pomocą pewnych urządzeń można wytwarzać jeszcze mniejsze urządzenia, które z kolei mogą wytwarzać jeszcze mniejsze urządzenia, i tak dalej, aż do poziomu atomowego, tj. Za pomocą odpowiednich technologii można manipulować pojedynczymi atomami.

W uczciwości należy jednak zauważyć, że Feynman nie był pierwszym, który go wynalazł. W szczególności pomysł stworzenia kolejno malejących rozmiarów manipulatorów został wyrażony już w 1931 r. Przez pisarza Borysa Żytkowa w jego fantastycznej opowieści Mikoruki. Nie możemy się oprzeć i nie przytaczamy małych cytatów z tej historii, aby dać czytelnikowi największe uznanie dla wglądu pisarza:

„Długo zastanawiałem się i oto, co wymyśliłem: zrobię małe dłonie, dokładną kopię mojej - niech będą co najmniej dwadzieścia, trzydzieści razy mniejsze, ale będą mieli elastyczne palce, takie jak moje, zacisną się w pięść, rozpadną się, staną się w tych samych pozycjach co moje żywe ręce. I zrobiłem je.
Ale nagle uderzyła mnie myśl: w końcu mogę zrobić mikro dłonie na moich małych rękach. Mogę zrobić dla nich te same rękawiczki, co dla moich żywych rąk, używając tego samego systemu, aby połączyć je z uchwytami dziesięciokrotnie mniejszymi niż moje mikro dłonie, a następnie. Będę miał prawdziwe mikro dłonie, dwieście razy już spłycą moje ruchy. Z tymi rękami włamam się do tak małej rzeczy życia, jaką tylko widziałem, ale gdzie nikt inny się nie pozbył. A ja do pracy.
Chciałem stworzyć prawdziwe mikrorooki, tak żebym mógł chwycić cząstki materii, z której powstała materia, te niewyobrażalnie małe cząstki, które są widoczne tylko w ultramikroskopie. Chciałem dostać się do tego obszaru, gdzie ludzki umysł traci wszelkie wyobrażenie o rozmiarze - wydaje się, że nie ma wymiarów, wszystko jest tak niewyobrażalnie płytkie. ”

Ale to nie tylko przepowiednie literackie. To, co obecnie nazywa się nanoobjects, nanotechnologia, jeśli chcesz, osoba od dawna używa w swoim życiu. Jednym z najbardziej uderzających przykładów (w sensie dosłownym i przenośnym) jest wielobarwne szkło. Na przykład stworzony w IV wieku pne. e. Lycurgus Cup, który jest przechowywany w British Museum, jest zielony, gdy jest oświetlony z zewnątrz, ale jeśli jest oświetlony od wewnątrz, jest purpurowo-czerwony. Jak pokazują ostatnie badania z wykorzystaniem mikroskopii elektronowej, ten niezwykły efekt jest spowodowany obecnością w szkle nanocząstek złota i srebra. Dlatego możemy śmiało powiedzieć, że Lycurgus Cup jest wykonany z materiału nanokompozytowego.

Jak się okazuje, w średniowieczu do szkła dodawano metaliczny nano-pył do produkcji witraży. Różnice w kolorze szkieł zależą od różnic w dodanych cząstkach - rodzaju użytego metalu i wielkości jego cząstek. Ostatnio stwierdzono, że te szkła mają również właściwości bakteriobójcze, to znaczy nie tylko dają piękną grę światła w pomieszczeniu, ale także dezynfekują środowisko.

Jeśli spojrzymy na historię rozwoju nauki w kategoriach historycznych, to możemy z jednej strony wyróżnić wspólny wektor - przenikanie nauk przyrodniczych „w głąb” materii. Ruch wzdłuż tego wektora zależy od rozwoju narzędzi nadzoru. Początkowo ludzie studiowali zwykły świat, którego obserwacja nie wymagała specjalnych urządzeń. Obserwując na tym poziomie, stworzono podstawy biologii (klasyfikacja żywego świata, C. Linnaeus i inni), stworzono teorię ewolucji (C. Darwin, 1859). Kiedy pojawił się teleskop, ludzie byli w stanie prowadzić obserwacje astronomiczne (G. Galileo, 1609). Rezultatem tego było prawo świata i mechanika klasyczna (I. Newton, 1642–1727). Kiedy pojawił się mikroskop Leeuwenhoka (1674), ludzie weszli do mikrokosmosu (zakres wielkości 1 mm - 0,1 mm). Początkowo była to tylko kontemplacja małych, niewidzialnych organizmów. Dopiero pod koniec XIX wieku L. Pasteur jako pierwszy odkrył naturę i funkcje mikroorganizmów. Mniej więcej w tym samym czasie (koniec XIX - początek XX wieku) nastąpiła rewolucja w fizyce. Naukowcy zaczęli przenikać do atomu, aby zbadać jego strukturę. Ponownie, było to spowodowane pojawieniem się nowych metod i narzędzi, w których zaczęto używać najmniejszych cząstek materii. W 1909 roku, używając cząstek alfa (jądra helu o wielkości około 10–13 m), Rutherfordowi udało się „zobaczyć” jądro atomu złota. Model planetarny atomu Bohr-Rutherforda, stworzony na podstawie tych eksperymentów, zapewnia żywy obraz ogromu „wolnego” miejsca w atomie, co jest dość porównywalne z pustką przestrzeni Układu Słonecznego. To właśnie pustka takich rozkazów miała na myśli Feynman w swoim wykładzie. Z pomocą tych samych cząstek α ​​w 1919 r. Rutherford przeprowadził pierwszą reakcję jądrową w celu przekształcenia azotu w tlen. Tak więc fizycy wprowadzili przedziały wielkości piko- i femto 1, a zrozumienie struktury materii na poziomie atomowym i subatomowym doprowadziło do stworzenia mechaniki kwantowej w pierwszej połowie ubiegłego wieku.

Świat utraconych wartości

Historycznie okazało się, że na skali rozmiarów (rys. 2) praktycznie wszystkie obszary badawcze zostały „pokryte”, z wyjątkiem obszaru nano-wymiarów. Jednak świat nie jest pozbawiony sprytnych ludzi. Na początku XX wieku W. Ostwald opublikował książkę „The World of Bypassed Values”, która dotyczyła wówczas nowej dziedziny chemii - chemii koloidów, która dotyczyła w szczególności cząstek wielkości nanometrów (chociaż termin ten nie był jeszcze używany). Już w tej książce zauważył, że fragmentacja materii w pewnym momencie prowadzi do nowych właściwości, że właściwości całego materiału zależą od wielkości cząstek.

Na początku XX wieku nie byli w stanie „zobaczyć” cząstek o takim rozmiarze, ponieważ leżą poniżej granic rozpuszczalności mikroskopu świetlnego. Dlatego nie jest przypadkiem, że wynalazek M. Knolla i E. Ruska w 1931 r. Pod mikroskopem elektronowym jest uważany za jeden z początkowych kamieni milowych w pojawieniu się nanotechnologii. Dopiero potem ludzkość była w stanie „zobaczyć” obiekty o wymiarach submikronowych i nanometrowych. A potem wszystko układa się na miejscu - główne kryterium, według którego ludzkość akceptuje (lub nie akceptuje) wszelkie nowe fakty i zjawiska, wyraża się w słowach Thomasa, niewierzącego: „Dopóki nie zobaczę, nie uwierzę”. 2

Kolejny krok został wykonany w 1981 roku - G. Binnig i G. Rohrer stworzyli skaningowy mikroskop tunelowy, który umożliwił nie tylko uzyskanie obrazów pojedynczych atomów, ale także manipulowanie nimi. Oznacza to, że technologia została stworzona, o której R. Feynman mówił w swoim wykładzie. Wtedy to była era nanotechnologii.

Zauważ, że tutaj mamy do czynienia z tą samą historią. Ponownie, ponieważ ludzkość ignoruje fakt, że przynajmniej trochę wyprzedza swój czas. 3 Tutaj, używając przykładu nanotechnologii, okazuje się, że nie odkryto nic nowego, po prostu zaczęli lepiej rozumieć, co się dzieje wokół, co nawet w starożytności ludzie już zrobili, nawet jeśli nieświadomie, raczej świadomie (wiedzieli, co chcą otrzymać) bez zrozumienia fizyki i chemii zjawiska. Inną kwestią jest to, że dostępność technologii nadal nie oznacza zrozumienia istoty procesu. Stal była w stanie gotować przez długi czas, ale zrozumienie fizycznych i chemicznych podstaw produkcji stali nastąpiło znacznie później. Tutaj możesz pamiętać, że tajemnica stali damasceńskiej nie jest do tej pory otwarta. Oto kolejna hipostaza - wiemy, co musimy uzyskać, ale nie wiemy jak. Zatem związek między nauką a technologią nie zawsze jest prosty.

Kto pierwszy zaangażował się w nanomateriały we współczesnym znaczeniu? W 1981 roku amerykański naukowiec G. Glater po raz pierwszy użył definicji „nanokrystalicznej”. Sformułował koncepcję tworzenia nanomateriałów i opracował ją w serii prac z lat 1981–1986, wprowadzając terminy „nanokrystaliczne”, „nanostrukturalne”, „nanofazowe” i „nanokompozytowe”. Główny nacisk w tych pracach położono na decydującą rolę licznych interfejsów w nanomateriałach jako podstawy do zmiany właściwości ciał stałych.

Jednym z najważniejszych wydarzeń w historii nanotechnologii 4 i rozwojem ideologii nanocząstek było także odkrycie nanostruktur węglowych - fulerenów i nanorurek węglowych w połowie lat 80. - na początku lat 90. XX wieku, a także odkrycie grafenu w XXI wieku. 5

Ale wracając do definicji.

Pierwsze definicje: wszystko jest bardzo proste

Na początku wszystko było bardzo proste. W 2000 roku prezydent USA B. Clinton podpisał inicjatywę National Nanotechnology Initiative, która definiuje: nanotechnologie obejmują tworzenie technologii i badania na poziomie atomowym, molekularnym i makromolekularnym w zakresie od około 1 do 100 nm dla zrozumienia podstaw zjawisk i właściwości materiałów na poziomie nanoskali, a także tworzenia i wykorzystywania struktur, urządzeń i systemów o nowych właściwościach i funkcjach określonych przez ich rozmiar.

W 2003 r. Rząd brytyjski zwrócił się do Royal Society 6 i Royal Academy of Engineering 7 z prośbą o wyrażenie opinii na temat potrzeby rozwoju nanotechnologii, oceny korzyści i problemów, które ich rozwój może spowodować. Taki raport, zatytułowany „Nanonauka i nanotechnologie: szanse i niepewności”, pojawił się w lipcu 2004 r. I, o ile wiemy, po raz pierwszy podano oddzielne definicje nanonauki i nanotechnologii:

Nanonauka to badanie zjawisk i obiektów na poziomie atomowym, molekularnym i makromolekularnym, których właściwości znacznie różnią się od właściwości ich makroanalogów. Nanotechnologie to projektowanie, charakteryzacja, produkcja i wykorzystanie struktur, urządzeń i systemów, których właściwości są określone przez ich kształt i rozmiar na poziomie nanometrów.

Tak więc termin „nanotechnologia” jest rozumiany jako zestaw metod technologicznych, które umożliwiają tworzenie nanoobiektów i / lub manipulowanie nimi. Pozostaje tylko zdefiniować nanoobjects. Ale okazuje się, że to nie jest takie proste, więc większość artykułu poświęcona jest właśnie tej definicji.

Na początek podajemy formalną definicję, która jest obecnie najczęściej stosowana:

Nanoobiekty (nanocząstki) nazywane są obiektami (cząstkami) o charakterystycznej wielkości 1–100 nanometrów w co najmniej jednym wymiarze.

Wydaje się, że wszystko jest dobre i jasne, nie jest jasne, dlaczego podano tak sztywną definicję dolnej i górnej granicy 1 i 100 nm? Wydaje się, że wybiera się go dobrowolnie, szczególnie podejrzanie ustawiając górną granicę. Dlaczego nie 70 lub 150 nm? W końcu, biorąc pod uwagę różnorodność nanoobiektów w przyrodzie, granice nano-miejsca skali rozmiaru mogą i powinny być znacznie rozmyte. Ogólnie rzecz biorąc, w naturze realizacja dokładnych granic jest niemożliwa - niektóre obiekty płynnie przechodzą w inne, a dzieje się to w określonym przedziale, a nie w punkcie.

Zanim zaczniemy mówić o granicach, spróbujmy zrozumieć, jakie znaczenie fizyczne zawiera pojęcie „nanoobject”, dlaczego miałoby to być oddzielną definicją?

Jak wspomniano powyżej, dopiero pod koniec XX wieku zrozumienie, że nanoskalowa struktura materii wciąż ma swoje własne cechy, że na tym poziomie materia ma inne właściwości, które nie pojawiają się w makrokosmosie, zaczęła się pojawiać (lub raczej być ustalona w umysłach). Bardzo trudno jest przetłumaczyć niektóre angielskie terminy na rosyjski, ale w języku angielskim istnieje termin „materiał masowy”, który w przybliżeniu można przetłumaczyć jako „dużą ilość substancji”, „substancję masową”, „medium ciągłe”. Tak więc niektóre właściwości „materiałów sypkich” ze zmniejszeniem wielkości cząstek składowych mogą zacząć się zmieniać, gdy osiągnie pewien rozmiar. W tym przypadku mówi się, że zachodzi przejście do nanostatu substancji, nanomateriałów.

Dzieje się tak, ponieważ w miarę zmniejszania się wielkości cząstek, ułamek atomów znajdujących się na ich powierzchni i ich udział w właściwościach obiektu stają się znaczące i rosną wraz z dalszym spadkiem wielkości (rys. 3).

Ale dlaczego wzrost udziału atomów powierzchni znacząco wpływa na właściwości cząstek?

Zjawiska powierzchniowe są znane od dawna - jest to napięcie powierzchniowe, zjawiska kapilarne, aktywność powierzchniowa, zwilżanie, adsorpcja, adhezja itp. Cały zestaw tych zjawisk wynika z faktu, że siły oddziaływania między cząstkami tworzącymi ciało nie są kompensowane na jego powierzchni (rys. 4 ). Innymi słowy, atomy na powierzchni (kryształ lub ciecz - to nie ma znaczenia) są w specjalnych warunkach. Na przykład w kryształach siły, które powodują, że znajdują się w węzłach sieci krystalicznej, działają na nie tylko od dołu. Dlatego właściwości tych „powierzchniowych” atomów różnią się od właściwości tych samych atomów w masie.

Ponieważ liczba atomów powierzchniowych w nanoobiektach gwałtownie wzrasta (rys. 3), ich udział w właściwościach nanoobiektu staje się decydujący i wzrasta wraz z dalszym zmniejszeniem wielkości obiektu. Jest to jeden z powodów manifestowania nowych właściwości w nanoskali.

Innym powodem omawianej zmiany własności jest to, że na tym poziomie wymiarów zaczynają się manifestować prawa mechaniki kwantowej, to znaczy poziom nano-wymiarów to poziom przejścia, mianowicie przejście od panowania mechaniki klasycznej do panowania mechaniki kwantowej. Jak wiadomo, najbardziej nieprzewidywalne są stany przejściowe.

W połowie XX wieku ludzie nauczyli się pracować z masą atomów, a także z jednym atomem.

Następnie stało się oczywiste, że „mała grupa atomów” jest czymś innym, niezupełnie podobnym do masy atomów lub pojedynczego atomu.

Po raz pierwszy prawdopodobnie naukowcy i technolodzy mają do czynienia z tym problemem w fizyce półprzewodników. W dążeniu do miniaturyzacji osiągnęli cząstki o takich rozmiarach (kilkadziesiąt nanometrów i mniej), w których ich właściwości optyczne i elektroniczne zaczęły się znacznie różnić od cząstek o „zwykłych” rozmiarach. Wówczas stało się jasne, że skala „nanoskali” jest specjalnym obszarem, innym niż obszar występowania cząstek stałych lub kontinuum.

Dlatego w powyższych definicjach nanonauki i nanotechnologii najważniejsze jest wskazanie, że „prawdziwy nano” zaczyna się od pojawienia się nowych właściwości substancji związanych z przejściem do tych skal i różniących się od właściwości materiałów sypkich. To jest najważniejsza i najważniejsza jakość nanocząstek, główna różnica między nimi a mikro- i makrocząsteczkami polega na pojawieniu się zasadniczo nowych właściwości, które nie przejawiają się w innych rozmiarach. Podaliśmy już przykłady literackie, używamy tej techniki ponownie, aby wizualnie pokazać i podkreślić różnice między makro, mikro i nanoobiektami.

Wróćmy do przykładów literackich. Często bohater Leskova Levshy jest wymieniany jako „wczesny” nanotechnolog. Jednak jest to złe. Głównym osiągnięciem Lefty jest to, że wykuł małe gwoździe [„Pracowałem mniej niż te podkowy: wykułem gwoździe, którymi zatkane są podkowy, nie ma małych lornetek, które mogłyby zabrać”]. Ale te paznokcie, choć bardzo małe, pozostały paznokcie, nie straciły swojej głównej funkcji - trzymania podkowy. Przykład Levshy jest przykładem miniaturyzacji (mikrominiaturyzacji, jeśli wolisz), czyli zmniejszenia rozmiaru obiektu bez zmiany jego właściwości funkcjonalnych i innych.

A wspomniana powyżej historia B. Żytkowa dokładnie opisuje zmianę właściwości:

„Musiałem rozciągnąć cienki drut - to znaczy tę grubość, która dla moich żywych rąk byłaby jak włosy. Pracowałem i patrzyłem przez mikroskop, gdy miedziane ramiona były przeciągane przez miedź. To jest cieńsze, cieńsze - jeszcze pięć razy się rozciąga - a potem drut był rozdarty. Nawet się nie złamała - kruszyła się jak z gliny. Rozrzucone w drobnym piasku. Jest to słynny z rudości miedzi.

Zauważ, że w artykule w Wikipedii w artykule na temat nanotechnologii, tylko zwiększenie sztywności miedzi jest podane jako jeden z przykładów zmiany właściwości o malejącym rozmiarze. (Ciekawe, jak B. Zhitkov dowiedział się o tym w 1931 roku?)

Nanoobiekty: płaszczyzny kwantowe, włókna i punkty. Nanostruktury węglowe

Pod koniec XX wieku istnienie określonego regionu wielkości cząstek materii - obszaru nanowymiarowości - w końcu stało się oczywiste. Fizycy, wyjaśniając definicję nanoobiektów, twierdzą, że górna granica nano-miejsca skali rozmiaru pokrywa się, jak się wydaje, z wielkością manifestacji tzw. Efektów nisko-wymiarowych lub skutkiem obniżenia wymiaru.

Spróbujmy zrobić odwrotne tłumaczenie ostatniego stwierdzenia z języka fizyków na język uniwersalny.

Żyjemy w trójwymiarowym świecie. Wszystkie rzeczywiste obiekty wokół nas mają pewne wymiary we wszystkich trzech wymiarach lub, jak mówią fizycy, mają wymiar 3.

Zróbmy następujący eksperyment myślowy. Wybierz trójwymiarową, trójwymiarową próbkę jakiegoś materiału, a najlepiej - jednorodny kryształ. Niech będzie to sześcian o długości krawędzi 1 cm Ta próbka ma pewne właściwości fizyczne, które nie zależą od jej wielkości. W pobliżu zewnętrznej powierzchni naszej próbki właściwości mogą się różnić od tych w objętości. Jednakże względny udział atomów powierzchniowych jest niewielki, a zatem udział zmiany powierzchni właściwości można pominąć (to właśnie ten wymóg oznacza w języku fizyków, że próbka jest masywna). Teraz dzielimy sześcian na pół - jego dwa charakterystyczne rozmiary pozostaną takie same, a jeden, niech będzie wysokości d, spadek o 2 razy. Co dzieje się z przykładowymi właściwościami? Nie zmienią się. Powtarzamy ten eksperyment ponownie i mierzymy interesującą nas właściwość. Otrzymamy taki sam wynik. Wielokrotnie powtarzając eksperyment, w końcu osiągamy pewien krytyczny rozmiar d *, poniżej którego mierzona przez nas właściwość zacznie zależeć od rozmiaru d. Dlaczego Gdy d ≤ d *, ułamek udziału atomów powierzchniowych we właściwościach staje się znaczący i będzie wzrastał z dalszym spadkiem d.

Fizycy twierdzą, że dla d ≤ d * w naszej próbce obserwuje się efekt wielkości kwantowej w jednym wymiarze. Dla nich nasza próbka nie jest już trójwymiarowa (co brzmi absurdalnie dla każdego zwykłego człowieka, ponieważ nasz d, choć mały, nie jest równy zeru!), Jego wymiar jest zredukowany do dwóch. Sama próbka jest nazywana płaszczyzną kwantową, lub kwantową, przez analogię do terminu „studnia potencjału” często używanego w fizyce.

Jeśli w niektórych próbkach d ≤ d * w dwóch wymiarach, nazywany jest on jednowymiarowym obiektem kwantowym, czyli nicią kwantową lub drutem kwantowym. Obiekty o wymiarach zerowych lub kropki kwantowe, d ≤ d * we wszystkich trzech wymiarach.

Naturalnie, krytyczny rozmiar d * nie jest stały dla różnych materiałów i nawet dla jednego materiału może się znacznie różnić w zależności od tego, które właściwości mierzyliśmy w naszym eksperymencie, czyli innymi słowy, która z krytycznych wymiarów wymiarowych zjawisk fizycznych określa ta własność (wolna ścieżka elektronów fononów, długość fali de Broglie, długość dyfuzji, głębokość penetracji zewnętrznego pola elektromagnetycznego lub fal akustycznych itp.).

Okazuje się jednak, że przy całej różnorodności zjawisk zachodzących w materiałach organicznych i nieorganicznych w przyrodzie i nieożywionej wartości d * leży w przybliżeniu w zakresie 1–100 nm. Zatem „nanoobiekt” („nanostruktura”, „nanocząstka”) jest tylko kolejną wersją terminu „struktura wielkości kwantowej”. Jest to obiekt o d ≤ d * w co najmniej jednym wymiarze. Są to cząstki o zmniejszonym wymiarze, cząstki o większym udziale atomów powierzchniowych. Bardziej logiczne jest więc sklasyfikowanie ich według stopnia redukcji wymiaru: 2D - płaszczyzny kwantowe, 1D - nici kwantowe, 0D - kropki kwantowe.

Cały zakres zredukowanych wymiarów można łatwo wyjaśnić, a najważniejsze jest eksperymentalne obserwowanie przykładu nanocząstek węgla.

Odkrycie nanostruktur węglowych było bardzo ważnym kamieniem milowym w rozwoju koncepcji nanocząstek.

Węgiel jest tylko jedenastym najczęściej spotykanym pierwiastkiem w przyrodzie, jednak ze względu na unikalną zdolność jego atomów do łączenia się ze sobą i tworzenia długich cząsteczek, które zawierają inne pierwiastki jako substytuty, pojawiła się ogromna liczba związków organicznych i samo Życie. Jednak nawet łącząc tylko ze sobą, węgiel może generować duży zbiór różnych struktur o bardzo zróżnicowanych właściwościach - tak zwanych modyfikacji alotropowych. 8 Diament, na przykład, stanowi punkt odniesienia dla przejrzystości i twardości, dielektryka i izolatora ciepła. Grafit jest jednak idealnym „pochłaniaczem” światła, super miękkim materiałem (w pewnym kierunku), jednym z najlepszych przewodników ciepła i elektryczności (w płaszczyźnie prostopadłej do wspomnianego wyżej kierunku). Ale oba te materiały składają się tylko z atomów węgla!

Ale to wszystko na poziomie makro. A przejście na poziom nano otwiera nowe unikalne właściwości węgla. Okazało się, że „miłość” atomów węgla do siebie jest tak wielka, że ​​mogą one tworzyć, bez udziału innych elementów, cały zestaw nanostruktur, które różnią się od siebie, w tym w wymiarze. Należą do nich fulereny, grafen, nanorurki, nanokony itp. (Ryc. 5).

Zauważamy tutaj, że nanostruktury węglowe można nazwać „prawdziwymi” nanocząsteczkami, ponieważ w nich, jak wyraźnie widać na rys. 5, wszystkie atomy składowe leżą na powierzchni.

Wróćmy jednak do samego grafitu. Grafit jest więc najpowszechniejszą i termodynamicznie stabilną modyfikacją węgla pierwiastkowego o trójwymiarowej strukturze krystalicznej składającej się z równoległych warstw atomowych, z których każda jest gęstym upakowaniem sześciokątów (rys. 6). W wierzchołkach dowolnego takiego sześciokąta znajduje się atom węgla, a boki sześciokątów graficznie odzwierciedlają silne wiązania kowalencyjne 9 między atomami węgla, których długość wynosi 0,142 nm. Ale odległość między warstwami jest dość duża (0.334 nm), a zatem połączenie między warstwami jest raczej słabe (w tym przypadku mówią o interakcji van der Waalsa 10).

Taka struktura krystaliczna wyjaśnia cechy właściwości fizycznych grafitu. Po pierwsze, niska twardość i możliwość łatwego rozwarstwienia na najmniejsze łuski. Na przykład ołówki są pisane ołówkami, których łuski grafitowe, łuszczące się, pozostają na papierze. Po drugie, wspomniana wyżej wyraźna anizotropia właściwości fizycznych grafitu, a przede wszystkim jego przewodności elektrycznej i przewodności cieplnej.

Każda z warstw trójwymiarowej struktury grafitu może być uważana za gigantyczną strukturę płaską o wymiarze 2D. Ta dwuwymiarowa struktura, zbudowana tylko z atomów węgla, zwana „grafenem”. Łatwo jest uzyskać taką strukturę „stosunkowo”, przynajmniej w eksperymencie umysłowym. Weź grafitowy długopis i zacznij pisać. Wysokość d łupka zmniejszy się. Jeśli jest wystarczająca cierpliwość, to w pewnym momencie wartość d równa się d *, a otrzymujemy płaszczyznę kwantową (2D).

Przez długi czas problem stabilności płaskich struktur dwuwymiarowych w stanie wolnym (bez podłoża) w ogóle, a grafenu w szczególności, a także właściwości elektroniczne grafenu, były przedmiotem badań teoretycznych. Ostatnio, w 2004 r., Grupa fizyków pod przewodnictwem A. Geima i K. Novoselova otrzymała pierwsze próbki grafenu, który dokonał rewolucji w tej dziedzinie, ponieważ takie dwuwymiarowe struktury okazały się, w szczególności, zdolne do wykazania zdumiewających właściwości elektronicznych, jakościowo różni się od wszystkich wcześniej obserwowanych. Dlatego dziś setki grup eksperymentalnych bada elektroniczne właściwości grafenu.

Jeśli zwiniemy warstwę grafenu, jednowarstwową na grubość, do cylindra, tak że heksagonalna siatka atomów węgla zamknie się bez szwów, to „skonstruujemy” jednościenną nanorurkę węglową. Jest eksperymentalnie możliwe uzyskanie nanorurek jednościennych o średnicy od 0,43 do 5 nm. Cechy charakterystyczne geometrii nanorurki to rekordowe wartości konkretnej powierzchni (średnio

1600 m2 / g dla rur jednościennych) i stosunek długości do średnicy (100 000 i więcej). Tak więc nanorurki są nanoobiektami 1D - wątkami kwantowymi.

W doświadczeniach zaobserwowano również wielowarstwowe nanorurki węglowe (ryc. 7). Składają się z współosiowych cylindrów wkładanych jeden w drugi, których ściany znajdują się w odległości (około 3,5 Å), w pobliżu odległości międzyplanarnej w graficie (0,334 nm). Liczba ścian może się wahać od 2 do 50.

Jeśli umieścisz kawałek grafitu w atmosferze gazu obojętnego (helu lub argonu), a następnie oświetlisz wiązkę impulsowego lasera o dużej mocy lub skoncentrowanego światła słonecznego, możesz odparować materiał naszego grafitowego celu (zauważ, że w tym celu temperatura powierzchni tarczy musi wynosić co najmniej 2700 ° C). W takich warunkach plazma składająca się z pojedynczych atomów węgla tworzy się powyżej powierzchni docelowej i jest porywana przez przepływ zimnego gazu, co prowadzi do chłodzenia plazmy i tworzenia klastrów węgla. Okazuje się więc, że w pewnych warunkach grupowania atomy węgla są zamknięte, tworząc sferyczną cząsteczkę szkieletową C60 wymiar 0D (tj. kropka kwantowa), już pokazany na rys. 1

Takie spontaniczne tworzenie się cząsteczki C60 w plazmie węglowej odkryto we wspólnym eksperymencie G. Kroto, R. Curl i R. Smoli, przeprowadzonym przez dziesięć dni we wrześniu 1985 r., wysyłając dociekliwego czytelnika do książki E. A. Katza „Fulereny, nanorurki węglowe i nanoklastery: formy rodowe i pomysły ”, które szczegółowo opisują fascynującą historię tego odkrycia i wydarzenia, które go poprzedziły (z krótkimi wycieczkami do historii nauki aż do renesansu, a nawet starożytności), a także wyjaśniając motywację dziwnego na pierwszy rzut oka (i tylko na pierwszy rzut oka) imienia Oliwki Buckminsterfulleren są na cześć architekta R. Buckminstera Fullera (patrz także książka [Piotrovsky, Kiselev, 2006]).

Następnie odkryto, że istnieje cała rodzina cząsteczek węgla - fulereny - w postaci wypukłych wielościanów składających się tylko z sześciokątnych i pięciokątnych ścian (rys. 8).

To odkrycie fullerenów było rodzajem magicznego „złotego klucza” w nowym świecie nanometrycznych struktur wykonanych z czystego węgla, które spowodowało eksplozję prac w tym obszarze. Do tej pory odkryto wiele różnych klastrów węgla z fantastycznym (w dosłownym tego słowa znaczeniu!) Zróżnicowaniem struktury i właściwości.

Ale wracając do nanomateriałów.

Nanomateriały to materiały, których jednostkami strukturalnymi są nanoobiekty (nanocząstki). Mówiąc obrazowo, budowa nanomateriału jest wykonana z cegieł-nanoobiektów. Dlatego też najbardziej wydajne jest klasyfikowanie nanomateriałów przez wymiar zarówno samej próbki nanomateriału (zewnętrzne wymiary matrycy), jak i wymiaru nanoobiektów, które go tworzą. Najbardziej szczegółowa klasyfikacja tego rodzaju jest podana w [Pokropivny, Skorokhod, 2008]. 36 klas nanostruktur przedstawionych w tym artykule opisuje całą gamę nanomateriałów, z których niektóre (takie jak wspomniane powyżej fulereny lub nanopiki węgla) zostały z powodzeniem zsyntetyzowane, a niektóre wciąż czekają na ich eksperymentalną realizację.

Dlaczego rzeczy nie są takie proste

Możemy więc ściśle zdefiniować pojęcia „nanonauki”, „nanotechnologii” i „nanomateriałów”, którymi jesteśmy zainteresowani, tylko jeśli zrozumiemy, czym jest „nanoobject”.

Z kolei „Nanoobiekt” ma dwie definicje. Pierwszy, prostszy (technologiczny): są to obiekty (cząstki) o charakterystycznej wielkości około 1–100 nanometrów w co najmniej jednym wymiarze. Druga definicja, bardziej naukowa, fizyczna: obiekt o zredukowanym wymiarze (który ma d ≤ d * w co najmniej jednym wymiarze).

O ile nam wiadomo, nie ma innych definicji.

Nie może jednak uderzyć w oko faktem, że definicja naukowa ma poważną wadę. Mianowicie: w nim, w przeciwieństwie do technologicznego, określana jest tylko górna granica nano-wymiarów. Czy powinien istnieć niższy limit? Naszym zdaniem oczywiście powinno. Pierwszy powód istnienia niższej granicy wynika bezpośrednio z fizycznej istoty naukowej definicji nanoobiektu, ponieważ większość omawianych efektów obniżania wymiaru to skutki ograniczenia kwantowego lub zjawiska o rezonansowym charakterze. Innymi słowy, są one obserwowane, gdy charakterystyczne długości efektu i wielkość obiektu pokrywają się, to znaczy nie tylko dla d ≤ d *, które zostało już omówione, ale jednocześnie tylko wtedy, gdy rozmiar d przekracza pewną dolną granicę d ** (d ** ≤ d ≤ d *). Jest oczywiste, że wartość d * może się różnić dla różnych zjawisk, ale musi przekraczać rozmiar atomów.

Pokazujemy to na przykładzie związków węgla. Wielopierścieniowe węglowodory aromatyczne (PAH), takie jak naftalen, benzpyren, chryzen itp., Są formalnie analogami grafenu. Ponadto największy znany PAH ma wzór ogólny C222H44 i zawiera 10 pierścieni benzenowych po przekątnej. Nie posiadają jednak tych niezwykłych właściwości, które posiada grafen i nie można ich uważać za nanocząstki. To samo dotyczy nanodiamentów: do

4–5 nm to nanodiamenty, ale blisko tych granic, a nawet przekraczając je, odpowiednie są wyższe diamidy (analogi adamantanu o skondensowanych komórkach diamentowych jako podstawa struktury).

Zatem: jeśli w limicie rozmiar obiektu we wszystkich trzech wymiarach jest równy rozmiarowi atomu, to na przykład kryształ złożony z takich obiektów 0-wymiarowych nie będzie nanomateriałem, ale zwykłym kryształem atomowym. To oczywiste. Jak oczywiste, fakt, że liczba atomów w nanoobiekcie powinien nadal przekraczać jeden. Jeśli nanobject ma wszystkie trzy wartości d mniejsze niż d **, przestaje być. Taki obiekt powinien być opisany w języku opisu poszczególnych atomów.

A jeśli nie wszystkie trzy rozmiary, na przykład tylko jeden? Czy taki obiekt pozostaje nanoobiektem? Oczywiście tak. Takim obiektem jest na przykład wspomniany już grafen. Fakt, że charakterystyczny rozmiar grafenu w jednym wymiarze jest równy średnicy atomu węgla, nie pozbawia go właściwości nanomateriałów. A te właściwości są absolutnie wyjątkowe. Zmierzono przewodnictwo, efekt Shubnikova-de Haasa, efekt Halla kwantowego w warstwach grafenowych o grubości atomowej. Eksperymenty potwierdziły, że grafen jest półprzewodnikiem z zerowym pasmem zerowym, podczas gdy w punktach styku pasm walencyjnych i przewodzących widmo energetyczne elektronów i dziur jest liniowe jako funkcja wektora falowego. Takie widmo ma cząstki o zerowej masie efektywnej, w szczególności fotony, neutrina, cząstki relatywistyczne. Różnica między fotonami a nośnikami bezmasowymi w grafenie polega na tym, że te ostatnie są fermionami i są naładowane. Obecnie nie ma analogów dla tych masowo naładowanych fermionów Diraca wśród znanych cząstek elementarnych. Obecnie grafen jest bardzo interesujący zarówno dla testowania zestawu założeń teoretycznych z dziedziny elektrodynamiki kwantowej i teorii względności, jak i dla tworzenia nowych urządzeń nanoelektronicznych, w szczególności tranzystorów balistycznych i jednoelektronowych.

W naszej dyskusji bardzo ważne jest, aby najbliżej pojęcia nanoobiektu był obszar wymiarowy, w którym realizowane są tak zwane zjawiska mezoskopowe. Jest to region o minimalnym rozmiarze, dla którego rozsądnie jest nie mówić o właściwościach poszczególnych atomów lub cząsteczek, ale o właściwościach materiału jako całości (na przykład przy określaniu temperatury, gęstości lub przewodności materiału). Wymiary mezoskopowe mieszczą się w zakresie 1–100 nm. (Przedrostek „meso” pochodzi od greckiego słowa „średnia”, pośredniego między wymiarami atomowymi i makroskopowymi).

Wszyscy wiedzą, że psychologia zajmuje się zachowaniem jednostek, a socjologia - zachowaniem dużych grup ludzi. Tak więc, związek w grupie 3-4 osób można opisać przez analogię do mesoyavleniya. W ten sam sposób, jak wspomniano powyżej, mała grupa atomów jest czymś nie podobnym do „sterty” atomów ani do pojedynczego atomu.

Tutaj należy zauważyć inną ważną cechę właściwości nanoobiektów. Pomimo faktu, że w przeciwieństwie do grafenu, nanorurki węglowe i fulereny są odpowiednio formami 1- i 0-wymiarowymi, ale nie jest to do końca prawdą. Albo raczej nie w tym samym czasie. Faktem jest, że nanorurka to ta sama monoatomowa warstwa grafenu 2D, która jest walcowana w cylinder. 11 Fuleren jest dwuwymiarową warstwą węgla o jednoatomowej grubości, zamkniętą na powierzchni kuli. Oznacza to, że właściwości nanoobiektów zasadniczo zależą nie tylko od ich wielkości, ale także od cech topologicznych - po prostu mówiąc, od ich kształtu.

Zatem poprawna definicja naukowa obiektu nano powinna wyglądać następująco:

Jest to obiekt, który ma co najmniej jeden z wymiarów ≤ d *, podczas gdy co najmniej jeden z wymiarów przekracza d **. Innymi słowy, obiekt jest wystarczająco duży, aby posiadać właściwości makro substancji, ale jednocześnie charakteryzuje się niższym wymiarem, tj. Co najmniej jeden z pomiarów jest na tyle mały, że wartości tych właściwości bardzo różnią się od odpowiednich właściwości obiektów makro z tej samej substancji, znacznie zależało od wielkości i kształtu obiektu. W tym przypadku dokładne wartości wymiarów d * i ** mogą się różnić nie tylko od substancji do substancji, ale także dla różnych właściwości tej samej substancji.

Fakt, że te rozważania nie są bynajmniej scholastyczne (jak „ile piask zaczyna się sterty?”), Ale mają głębokie znaczenie dla zrozumienia jedności nauki i ciągłości otaczającego nas świata, stają się oczywiste, jeśli zwrócimy naszą uwagę na organiczne nanoobiekty.

Nanoobiekty natury organicznej - struktury supramolekularne

Powyżej rozważaliśmy tylko nieorganiczne, względnie jednorodne materiały i już tam wszystko nie było takie proste. Ale na Ziemi jest ogromna ilość materii, która jest nie tylko trudna, ale nie jednorodna. Mówimy o strukturach biologicznych i ogólnie o materii żywej.

W „National Nanotechnology Initiative” jako jeden z powodów szczególnego zainteresowania dziedziną nanowymiarową wskazano:

Ponieważ systemowa organizacja materii na poziomie nanoskali jest kluczową cechą systemów biologicznych, nanonauka i technologia umożliwią włączenie sztucznych komórek i zespołów do komórek, tworząc w ten sposób nowe strukturalnie zorganizowane materiały oparte na imitacji metod samoorganizacji w przyrodzie.

Spróbujmy teraz dowiedzieć się, co oznacza pojęcie „nanoskali” w zastosowaniu do biologii, pamiętając, że przechodząc do tego przedziału wielkości, właściwości muszą zasadniczo lub dramatycznie się zmienić. Ale najpierw przypominamy, że do nanoregionu można podejść na dwa sposoby: „z góry na dół” (zgniatanie) lub „z dołu” (synteza). Tak więc ruch „oddolny” dla biologii jest niczym innym jak tworzeniem biologicznie aktywnych kompleksów z poszczególnych cząsteczek.

Rozważmy krótko wiązania chemiczne, które określają strukturę i kształt cząsteczki. Pierwszy i najsilniejszy to wiązanie kowalencyjne, charakteryzujące się ścisłą kierunkowością (tylko od jednego atomu do drugiego) i pewną długością, która zależy od rodzaju wiązania (pojedyncze, podwójne, potrójne itd.). To kowalencyjne wiązania między atomami określają „pierwotną strukturę” każdej cząsteczki, to znaczy, które atomy iw jakiej kolejności są ze sobą powiązane.

Istnieją jednak inne rodzaje wiązań, które określają tzw. Strukturę drugorzędową cząsteczki, jej kształt. Jest to przede wszystkim wiązanie wodorowe - wiązanie między atomem polarnym a atomem wodoru. Jest najbliżej wiązania kowalencyjnego, ponieważ charakteryzuje się także pewną długością i kierunkowością. Jednak wiązanie to jest słabe, jego energia jest o rząd wielkości niższa niż energia wiązania kowalencyjnego. Pozostałe rodzaje oddziaływań są niekierunkowe i charakteryzują się nie długością utworzonych wiązań, ale szybkością spadku energii wiązania wraz ze wzrostem odległości między oddziałującymi atomami (oddziaływanie dalekiego zasięgu). Wiązanie jonów jest oddziaływaniem dalekiego zasięgu, oddziaływania van der Waalsa są krótkiego zasięgu. Jeśli więc odległość między dwiema cząstkami wzrasta r razy, w przypadku wiązania jonowego, przyciąganie zmniejsza się do 1 / r 2 od wartości początkowej, w przypadku wspomnianej interakcji van der Waalsa więcej niż raz - do 1 / r 3 lub więcej (do 1 / r 12). Ogólnie wszystkie te interakcje można zdefiniować jako oddziaływania międzycząsteczkowe.

Rozważ teraz koncepcję „biologicznie czynnej cząsteczki”. Należy zauważyć, że sama cząsteczka substancji jest interesująca tylko dla chemików i fizyków. Interesuje ich struktura („struktura pierwotna”), jej forma („struktura wtórna”), takie makroskopowe wskaźniki, jak na przykład stan agregacji, rozpuszczalność, temperatura topnienia i wrzenia itp. Oraz mikroskopijne 12 (efekty elektroniczne i wzajemny wpływ atomów w danej cząsteczce, właściwości spektralne jako przejaw tych oddziaływań). Innymi słowy, mówimy o badaniu właściwości przejawianych w zasadzie przez pojedynczą cząsteczkę. Przypomnijmy, że z definicji cząsteczka jest najmniejszą cząstką substancji, która ma swoje właściwości chemiczne.

Z punktu widzenia biologii „wyizolowana” cząsteczka (w tym przypadku nie ma znaczenia, czy jest to jedna cząsteczka, czy pewna ilość identycznych cząsteczek) nie jest w stanie wykazać żadnych właściwości biologicznych. Ta teza brzmi raczej paradoksalnie, ale postaramy się ją uzasadnić.

Rozważmy to na przykładzie enzymów - cząsteczek białka, które są katalizatorami biochemicznymi. Na przykład, enzym hemoglobiny, który zapewnia transport tlenu do tkanek, składa się z czterech cząsteczek białka (podjednostek) i jednej tak zwanej grupy prostetycznej - hemu, który zawiera atom żelaza, który jest niekowalencyjnie związany z podjednostkami białka hemoglobiny.

Główny, a raczej decydujący wkład w interakcję podjednostek białkowych i klejnotów, oddziaływanie prowadzące do powstania i stabilności kompleksu supramolekularnego, zwanego hemoglobiną, powstaje w wyniku działania sił, czasami nazywanych oddziaływaniami hydrofobowymi, ale reprezentujących siły oddziaływań międzycząsteczkowych. Wiązania utworzone przez te siły są znacznie słabsze niż wiązania kowalencyjne. Ale z komplementarnym oddziaływaniem, gdy dwie powierzchnie są bardzo blisko siebie, liczba tych słabych wiązań jest duża, a zatem całkowita energia oddziaływania cząsteczek jest dość wysoka, a powstały kompleks jest wystarczająco stabilny. Ale dopóki te połączenia między czterema podjednostkami nie zostaną utworzone, dopóki grupa protetyczna (klejnoty) nie połączy się (ponownie z powodu połączeń niekowalencyjnych), w żadnym wypadku poszczególne części hemoglobiny nie mogą wiązać tlenu, a ponadto nie mogą go nigdzie przenosić. A zatem nie posiadają tej aktywności biologicznej. (To samo rozumowanie można rozszerzyć na wszystkie enzymy ogólnie).

Jednocześnie sam proces katalizy implikuje tworzenie się podczas reakcji kompleksu co najmniej dwóch składników - samego katalizatora i cząsteczki zwanej substratem (substratami), która ulega pewnym przemianom chemicznym pod wpływem katalizatora. Innymi słowy, powinien powstać kompleks co najmniej dwóch cząsteczek, to znaczy kompleks supramolekularny (supramolekularny).

Idea interakcji komplementarnej została po raz pierwszy zaproponowana przez E. Fishera w celu wyjaśnienia interakcji substancji leczniczych z ich celem w organizmie i została nazwana interakcją „klucz do blokady”. Chociaż leki (i inne substancje biologiczne) są dalekie od bycia enzymami we wszystkich przypadkach, są również zdolne do wywoływania efektu biologicznego tylko po interakcji z odpowiednim celem biologicznym. Ale taka interakcja jest znowu niczym innym jak tworzeniem kompleksu supramolekularnego.

W konsekwencji przejaw „zwykłych” cząsteczek o zasadniczo nowych właściwościach (w tym przypadku aktywności biologicznej) jest związany z tworzeniem przez nie supramolekularnych kompleksów z innymi cząsteczkami z powodu sił oddziaływań międzycząsteczkowych. W ten sposób większość enzymów i układów w organizmie (receptory, błony itd.) Jest ułożonych, w tym tak złożone struktury, które czasami nazywane są „maszynami biologicznymi” (rybosomy, ATPaza itp.). I dzieje się dokładnie na poziomie wielkości nanometrów - od jednego do kilkudziesięciu nanometrów.

Przy dalszych komplikacjach i zwiększeniu rozmiaru (ponad 100 nm), tj. Po przejściu na inny poziom wymiarów (poziom mikro) powstają znacznie bardziej złożone systemy, które są zdolne nie tylko do niezależnego istnienia i interakcji (w szczególności wymiany energii) z otoczeniem ich środowisko, ale także samo-reprodukcja. Oznacza to, że ponownie następuje zmiana właściwości całego systemu - staje się ona tak skomplikowana, że ​​jest już zdolna do samo-reprodukcji, co nazywamy żywymi strukturami.

Wielu myślicieli wielokrotnie próbowało zdefiniować życie. Nie wchodząc w dyskusje filozoficzne, zauważamy, że naszym zdaniem życie to istnienie samoreplikujących się struktur, a żywe struktury zaczynają się od pojedynczej komórki. Życie jest zjawiskiem mikro- i makroskopowym, ale główne procesy zapewniające funkcjonowanie żywych systemów zachodzą na poziomie nanoskali.

Funkcjonowanie żywej komórki jako zintegrowanego urządzenia samoregulującego o wyraźnej hierarchii strukturalnej zapewnia miniaturyzacja na poziomie nanoskali. Oczywiste jest, że miniaturyzacja na poziomie nanoskali jest podstawowym atrybutem biochemii, a zatem ewolucja życia polega na powstawaniu i integracji różnych form nanostrukturalnych obiektów. 13 Jest to nanoskalowa część hierarchii strukturalnej, której rozmiar jest ograniczony zarówno od góry, jak i od dołu (!), Co ma kluczowe znaczenie dla wyglądu i utrzymania komórek. Oznacza to, że poziom nano-wymiarów reprezentuje przejście od poziomu molekularnego do poziomu życia.

Jednak ze względu na fakt, że miniaturyzacja na poziomie nanoskali jest podstawową cechą biochemii, nie można jednak wziąć pod uwagę żadnych manipulacji biochemicznych, takich jak nanotechnologia - nanotechnologie oznaczają przecież projektowanie, a nie banalne użycie cząsteczek i cząstek.

Wniosek

Na początku artykułu staraliśmy się jakoś sklasyfikować przedmioty różnych nauk przyrodniczych zgodnie z zasadą charakterystycznych wymiarów badanych przedmiotów. Wróćmy do tego jeszcze raz i, stosując tę ​​klasyfikację, otrzymamy, że fizyka atomowa badająca interakcje wewnątrz atomu to wymiary subangstrom (femto i pico).

„Zwykła” chemia nieorganiczna i organiczna to rozmiary angstremów, poziom poszczególnych cząsteczek lub wiązania wewnątrz kryształów substancji nieorganicznych. Ale biochemia to poziom nanoskali, poziom istnienia i funkcjonowania struktur supramolekularnych stabilizowanych przez niekowalencyjne siły międzycząsteczkowe.

Ale struktury biochemiczne są nadal stosunkowo proste i mogą działać względnie niezależnie (in vitro, jeśli chcesz). Kolejna komplikacja, tworzenie złożonych zespołów przez struktury supramolekularne - to przejście do samoreplikujących się struktur, przejście do Żywego. I tutaj, na poziomie komórek, są to mikro-wymiary, a na poziomie organizmów makro-wymiary. To jest biologia i fizjologia.

Nanopoziom jest regionem przejściowym od poziomu molekularnego, stanowiącym podstawę istnienia wszelkiego życia, składającego się z cząsteczek, do poziomu życia, poziomu istnienia samoreplikujących się struktur, a nanocząstki, które są strukturami supramolekularnymi stabilizowanymi przez siły oddziaływania międzycząsteczkowego, reprezentują formę przejściową od pojedynczych cząsteczek do złożonych systemy funkcjonalne. Można to odzwierciedlić w schemacie podkreślającym w szczególności ciągłość natury (rys. 9). W tym schemacie świat nanometrycznych rozmiarów znajduje się między światem molekularnym a światem żywego, składającym się z tych samych atomów i cząsteczek, ale zorganizowanym w złożone samoreplikujące się struktury, a przejście z jednego świata do drugiego jest określone nie tylko (a nie tak bardzo) przez wielkość struktur, ale przez ich złożoność. Natura od dawna wymyśla i wykorzystuje struktury supramolekularne w żywych systemach. Nie zawsze jesteśmy w stanie zrozumieć, nie mówiąc już o powtórzeniu, co Natura robi łatwo i naturalnie. Ale nie możesz oczekiwać od niej przysług, musisz się od niej uczyć.

Literatura:
1) Vul A.Ya., Sokolov V.I. Badania nanowęgla w Rosji: od fulerenów do nanorurek i nano-diamentów / rosyjskich nanotechnologii, 2007. T. 3 (3-4).
2) Katz E.A. Fulereny, nanorurki węglowe i nanoklastry: rodowód form i pomysłów. - M.: LKI, 2008.
3) Ostwald V. Świat pomijanych wartości. - M.: Wydawnictwo partnerstwa „World”, 1923.
4) Piotrovsky LB, Kiselev OI Fulereny w biologii. - Rostock, St. Petersburg, 2006.
5) Tkachuk V.A. Nanotechnologie i medycyna // Rosyjskie nanotechnologie, 2009. T. 4 (7–8).
6) Khobza P., Zahradnik R. Kompleksy międzycząsteczkowe. - M.: Mir, 1989.
7) Mann S. Życie jako zjawisko w skali nano. Angew. Chem. Int. Ed. 2008, 47, 5306–5320.
8) Pokropivny V.V., Skorokhod V.V. Nowe klasyfikacje nanostruktur o wymiarach // Physica E, 2008, v. 40, str. 2521-2525.

1 Nano - 10–9, piko - 10–12, femto - 10–15.

2 Co więcej, nie tylko zobacz, ale dotknij. „Ale on rzekł do nich: jeśli nie widzę Jego ran z gwoździ w rękach, a nie włożę palców w rany gwoździ, a nie złożę rąk w Jego żebra, nie uwierzę” [Ewangelia Jana, rozdział 20, werset 24].

3 Na przykład mówił o atomach w 430 rpne e. Demokryt. Następnie Dalton w 1805 r. Twierdził, że: 1) pierwiastki składają się z atomów, 2) atomy jednego pierwiastka są identyczne i różnią się od atomów drugiego pierwiastka i 3) atomy nie mogą zostać zniszczone w reakcji chemicznej. Ale dopiero pod koniec XIX wieku zaczęły się rozwijać teorie dotyczące budowy atomu, co spowodowało rewolucję w fizyce.

4 Koncepcja „nanotechnologii” została wprowadzona w 1974 r. Przez Japończyka Norio Taniguchi. Przez długi czas termin ten nie był powszechnie używany przez specjalistów pracujących w pokrewnych dziedzinach, ponieważ Taniguchi użył pojęcia „nano” tylko do określenia dokładności obróbki powierzchni, na przykład w technologiach, które umożliwiają kontrolowanie chropowatości powierzchni materiałów na poziomie mniejszym niż mikrometr itp.

5 Koncepcje „fulerenów”, „nanorurek węglowych” i „grafenu” zostaną omówione szczegółowo w drugiej części artykułu.

6 Royal Society jest wiodącym towarzystwem naukowym w Wielkiej Brytanii.

7 Royal Academy of Engineering UK.

8 Alotropia (z greckiego. Alios - inny i tropos - zwrot, własność) - istnienie tego samego pierwiastka chemicznego w postaci struktur o różnych właściwościach i strukturze.

9 Wiązanie kowalencyjne jest wiązaniem chemicznym spowodowanym utworzeniem wspólnego dla dwóch sąsiadujących atomów pary elektronów i przyciągania kulombowskiego między tą parą a jądrami atomowymi.

10 Oddziaływanie Van der Waalsa, czyli wiązanie van der Waalsa, jest słabym wiązaniem chemicznym opartym na siłach oddziaływań międzycząsteczkowych o energii 0,8–8,16 kJ / mol, wynikających z polaryzacji cząsteczek i tworzenia dipoli. Odkryty przez J.D. van der Waalsa w 1869 roku

11 Eksperymentalną ilustracją tego stwierdzenia jest niedawno opublikowany rozwój technologicznych metod wytwarzania arkuszy grafenu przez „cięcie chemiczne” i „rozwijanie” nanorurek węglowych.

12 Słowo „mikroskopijne” jest tutaj używane tylko dlatego, że te właściwości zostały wcześniej nazwane, chociaż w tym przypadku mówimy o właściwościach manifestowanych przez cząsteczki i atomy, czyli przedział wielkości pików.

13 Co w szczególności doprowadziło do pojawienia się punktu widzenia, że ​​życie jest zjawiskiem wielkości nanometrowej (Mann, 2008), co naszym zdaniem nie jest do końca prawdą.

http://elementy.ru/lib/431265
Up