Zostało udowodnione eksperymentalnie, że nie ma obiektywnej rzeczywistości. Po raz pierwszy eksperymentalnie udowodniono, że światło może pchać ciecz. Udowodniono to eksperymentalnie

Strona 2

Udowodniono eksperymentalnie, że nośnikami ładunków swobodnych w metalach są elektrony. Pod wpływem pole elektryczne elektrony poruszają się ze stałą średnią prędkością na skutek hamowania sieć krystaliczna. Prędkość uporządkowanego ruchu jest wprost proporcjonalna do natężenia pola w przewodniku.

IV.Zależność rezystancji przewodu od temperatury

Jeśli przepuścisz prąd z akumulatora przez stalową cewkę, a następnie zaczniesz go podgrzewać w płomieniu palnika, amperomierz wskaże spadek prądu. Oznacza to, że wraz ze zmianą temperatury zmienia się rezystancja przewodnika.

Jeżeli w temperaturze równej opór przewodnika jest równy , a w temperaturze jest równy , wówczas względna zmiana rezystancji, jak pokazuje doświadczenie, jest wprost proporcjonalna do zmiany temperatury: .

Współczynnik proporcjonalności nazywany jest temperaturowym współczynnikiem oporu. Charakteryzuje zależność rezystancji substancji od temperatury. Współczynnik temperaturowy rezystancji jest liczbowo równy względnej zmianie rezystancji przewodnika po podgrzaniu o 1 K. Dla wszystkich przewodników metalowych i zmienia się nieznacznie wraz z temperaturą. Jeżeli przedział zmian temperatury jest mały, wówczas współczynnik temperaturowy można uznać za stały i równy jego średniej wartości w tym przedziale temperatur. W czystych metalach.

Po nagrzaniu przewodnika jego wymiary geometryczne nieznacznie się zmieniają. Rezystancja przewodnika zmienia się głównie na skutek zmian jego rezystywności. Można znaleźć zależność tej rezystywności od temperatury: .

Ponieważ zmienia się niewiele, gdy zmienia się temperatura przewodnika, możemy założyć, że rezystywność przewodnika zależy liniowo od temperatury (ryc. 1).

Ryż. 1

Chociaż współczynnik jest dość mały, uwzględnienie zależności rezystancji od temperatury przy obliczaniu urządzeń grzewczych jest po prostu konieczne. Zatem opór żarnika wolframowego żarówki wzrasta ponad 10 razy, gdy przepływa przez niego prąd.

Niektóre stopy, takie jak stop miedzi i niklu, mają bardzo mały współczynnik temperaturowy oporu:

; Rezystywność konstantanu jest wysoka: . Stopy takie wykorzystywane są do produkcji rezystancji wzorcowych oraz rezystancji dodatkowych do przyrządów pomiarowych tj. w przypadkach, gdy wymagane jest, aby rezystancja nie zmieniała się zauważalnie pod wpływem wahań temperatury.

W termometrach oporowych wykorzystuje się zależność rezystancji metalu od temperatury. Zazwyczaj głównym elementem roboczym takiego termometru jest drut platynowy, którego zależność rezystancji od temperatury jest dobrze znana. Zmiany temperatury ocenia się na podstawie zmian rezystancji drutu, którą można zmierzyć. Termometry takie pozwalają mierzyć bardzo niskie i bardzo wysokie temperatury, gdy konwencjonalne termometry cieczowe nie nadają się.

Rezystywność metali rośnie liniowo wraz ze wzrostem temperatury. W przypadku roztworów elektrolitów zmniejsza się wraz ze wzrostem temperatury.

V.Nadprzewodnictwo

Ryż. 2

W 1911 roku holenderski fizyk Kamerlingh Onnes odkrył niezwykłe zjawisko – nadprzewodnictwo. Odkrył, że gdy rtęć schładza się w ciekłym helu, jej rezystancja najpierw zmienia się stopniowo, a następnie bardzo gwałtownie spada do zera w temperaturze (ryc. 2). Zjawisko to nazwano nadprzewodnictwem. Później odkryto wiele innych nadprzewodników. Nadprzewodnictwo występuje w bardzo niskich temperaturach – ok.

Jeśli w przewodniku pierścieniowym będącym w stanie nadprzewodzącym wytworzy się prąd, a następnie zostanie wyeliminowane źródło prądu elektrycznego, to natężenie tego prądu nie zmieni się przez dłuższy czas. W zwykłym przewodniku nieprzewodzącym prąd elektryczny zatrzymuje się.

Nadprzewodniki są szeroko stosowane. W ten sposób budowane są potężne elektromagnesy z uzwojeniem nadprzewodzącym, które wytwarzają pole magnetyczne przez długi czas bez zużywania energii. Przecież w uzwojeniu nadprzewodzącym nie wydziela się ciepło.

Nie da się jednak uzyskać dowolnie silnego pola magnetycznego za pomocą magnesu nadprzewodzącego. Bardzo silne pole magnetyczne niszczy stan nadprzewodzący. Takie pole może wytworzyć prąd w samym nadprzewodniku. Dlatego dla każdego przewodnika w stanie nadprzewodzącym istnieje krytyczna wartość natężenia prądu, której nie można przekroczyć bez naruszenia tego stanu.

W tysiącletniej historii nauki przeprowadzono setki tysięcy eksperymentów fizycznych. Trudno wybrać kilku „najlepszych” wśród fizyków w USA Europa Zachodnia przeprowadzono ankietę. Badacze Robert Creese i Stoney Book poprosili ich o wymienienie najpiękniejszych eksperymentów fizycznych w historii. Igor Sokalsky, badacz w Laboratorium Astrofizyki Neutrinów Wysokich Energii, kandydat nauk fizycznych i matematycznych, opowiedział o eksperymentach, które według wyników selektywnej ankiety przeprowadzonej przez Kriza i Buka znalazły się w pierwszej dziesiątce.

1. Eksperyment Eratostenesa z Cyreny

Jedno z najstarszych znanych eksperymentów fizycznych, w wyniku którego zmierzono promień Ziemi, przeprowadził w III wieku p.n.e. bibliotekarz słynnej Biblioteki Aleksandryjskiej, Erastotenes z Cyreny. Projekt eksperymentu jest prosty. W południe, w dniu przesilenia letniego, w mieście Siena (obecnie Asuan) Słońce znajdowało się w zenicie, a obiekty nie rzucały cieni. Tego samego dnia i o tej samej porze w Aleksandrii, położonej 800 kilometrów od Sieny, Słońce odeszło od zenitu o około 7°. To około 1/50 pełnego koła (360°), co oznacza, że ​​obwód Ziemi wynosi 40 000 kilometrów, a promień 6300 kilometrów. Wydaje się niemal niewiarygodne, że taki pomiar prosta metoda Promień Ziemi okazał się tylko 5% mniej niż wartość, uzyskane przez najdokładniejsze nowoczesne metody, podaje portal „Chemia i Życie”.

2. Eksperyment Galileo Galilei

W XVII wieku dominował pogląd Arystotelesa, który nauczał, że prędkość spadania ciała zależy od jego masy. Im cięższe ciało, tym szybciej spada. Obserwacje, które każdy z nas może poczynić życie codzienne, zdaje się to potwierdzać. Spróbuj jednocześnie puścić lekką wykałaczkę i ciężki kamień. Kamień szybciej dotknie ziemi. Takie obserwacje doprowadziły Arystotelesa do wniosku o podstawowej właściwości siły, z jaką Ziemia przyciąga inne ciała. Tak naprawdę na prędkość spadania wpływa nie tylko siła grawitacji, ale także siła oporu powietrza. Stosunek tych sił jest inny dla obiektów lekkich i ciężkich, co prowadzi do zaobserwowanego efektu.

Włoch Galileo Galilei wątpił w słuszność wniosków Arystotelesa i znalazł sposób, aby je sprawdzić. Aby to zrobić, w tym samym momencie zrzucił kulę armatnią i znacznie lżejszy pocisk z muszkietu z Krzywej Wieży w Pizie. Obydwa korpusy miały w przybliżeniu ten sam opływowy kształt, dlatego zarówno w przypadku rdzenia, jak i pocisku siły oporu powietrza były znikome w porównaniu z siłami grawitacji. Galileusz odkrył, że oba obiekty docierają do ziemi w tym samym momencie, czyli prędkość ich spadania jest taka sama.

Wyniki uzyskane przez Galileo są konsekwencją prawa uniwersalna grawitacja oraz prawo, zgodnie z którym przyspieszenie doświadczane przez ciało jest wprost proporcjonalne do działającej na nie siły i odwrotnie proporcjonalne do masy.

3. Kolejny eksperyment Galileo Galilei

Galileusz zmierzył odległość, jaką pokonują kule toczące się po pochyłej desce w równych odstępach czasu, zmierzoną przez autora eksperymentu za pomocą zegara wodnego. Naukowiec odkrył, że jeśli czas zostanie podwojony, kulki potoczą się cztery razy dalej. Ta kwadratowa zależność oznaczała, że ​​kule poruszały się z przyspieszoną szybkością pod wpływem grawitacji, co zaprzeczało przyjętemu od 2000 lat twierdzeniu Arystotelesa, że ​​ciała, na które działa siła, poruszają się ze stałą prędkością, natomiast jeśli nie jest przyłożona żadna siła, do ciała, wówczas znajduje się ono w spoczynku. Wyniki tego eksperymentu Galileusza, podobnie jak wyniki jego eksperymentu z Krzywą Wieżą w Pizie, posłużyły później za podstawę do sformułowania praw mechaniki klasycznej.

4. Eksperyment Henry'ego Cavendisha

Po sformułowaniu przez Izaaka Newtona prawa powszechnego ciążenia: siła przyciągania pomiędzy dwoma ciałami o masach Mit, oddalonymi od siebie o odległość r, jest równa F=γ (mM/r2), pozostało wyznaczyć wartość stała grawitacyjna γ - W tym celu należało zmierzyć siłę przyciągania pomiędzy dwoma ciałami o znanych masach. Nie jest to takie proste, ponieważ siła przyciągania jest bardzo mała. Czujemy siłę grawitacji Ziemi. Ale nie można poczuć atrakcyjności nawet bardzo dużej góry w pobliżu, ponieważ jest ona bardzo słaba.

Potrzebna była bardzo subtelna i czuła metoda. Został wynaleziony i używany w 1798 roku przez rodaka Newtona, Henry'ego Cavendisha. Użył skali skrętnej – wahacza z dwiema kulkami zawieszonymi na bardzo cienkim sznurku. Cavendish zmierzył przemieszczenie wahacza (obrót), gdy inne kule o większej masie zbliżały się do łuski. Aby zwiększyć czułość, przemieszczenie określano na podstawie plamek świetlnych odbitych od lusterek zamontowanych na wahaczach. W wyniku tego eksperymentu Cavendishowi po raz pierwszy udało się dość dokładnie wyznaczyć wartość stałej grawitacji i obliczyć masę Ziemi.

5. Eksperyment Jeana Bernarda Foucaulta

Francuski fizyk Jean Bernard Leon Foucault eksperymentalnie udowodnił obrót Ziemi wokół własnej osi w 1851 roku za pomocą 67-metrowego wahadła zawieszonego na szczycie kopuły paryskiego Panteonu. Płaszczyzna wahań wahadła pozostaje niezmieniona w stosunku do gwiazd. Obserwator znajdujący się na Ziemi i obracający się wraz z nią widzi, że płaszczyzna obrotu powoli obraca się w kierunku przeciwnym do kierunku obrotu Ziemi.

6. Eksperyment Izaaka Newtona

W 1672 roku Izaak Newton przeprowadził proste doświadczenie opisane we wszystkich podręcznikach szkolnych. Zamknął okiennice i zrobił w nich mały otwór, przez który przechodził promień słońca. Na drodze wiązki światła umieszczono pryzmat, a za pryzmatem umieszczono ekran. Na ekranie Newton zaobserwował „tęczę”: biały promień światła słonecznego przechodzący przez pryzmat zamienił się w kilka kolorowych promieni - od fioletu do czerwieni. Zjawisko to nazywa się dyspersją światła.

Sir Izaak nie był pierwszym, który zaobserwował to zjawisko. Już na początku naszej ery było wiadomo, że duże monokryształy naturalnego pochodzenia mają właściwość rozkładania światła na kolory. Pierwsze badania rozproszenia światła w eksperymentach ze szklanym pryzmatem trójkątnym, jeszcze przed Newtonem, przeprowadzili Anglik Hariot i czeski przyrodnik Marzi.

Jednak przed Newtonem takie obserwacje nie były poddawane poważnej analizie, a wyciągane na ich podstawie wnioski nie były sprawdzane dodatkowymi eksperymentami. Zarówno Hariot, jak i Marzi pozostali zwolennikami Arystotelesa, który twierdził, że o różnicach w kolorze decydują różnice w ilości ciemności „zmieszanej” ze światłem białym. Kolor fioletowy według Arystotelesa pojawia się, gdy do największej ilości światła dodaje się ciemność, a czerwony - gdy ciemność dodaje się w najmniejszej ilości. Newton przeprowadził dodatkowe eksperymenty ze skrzyżowanymi pryzmatami, gdy światło przechodziło przez jeden pryzmat, a następnie przechodziło przez drugi. Na podstawie całości swoich eksperymentów doszedł do wniosku, że „z zmieszania bieli i czerni nie powstaje żaden kolor, z wyjątkiem pośrednich ciemnych”.

ilość światła nie zmienia wyglądu koloru.” Pokazał, że światło białe należy traktować jako związek. Główne kolory to od fioletu do czerwieni.

Ten eksperyment Newtona jest znakomitym przykładem tego, jak różni ludzie obserwując to samo zjawisko różnie je interpretują, a do właściwych wniosków dochodzą tylko ci, którzy kwestionują ich interpretację i przeprowadzają dodatkowe eksperymenty.

7. Eksperyment Thomasa Younga

Do początków XIX wieku dominowały koncepcje korpuskularnej natury światła. Uważano, że światło składa się z pojedynczych cząstek – korpuskuł. Chociaż zjawiska dyfrakcji i interferencji światła zaobserwował Newton („pierścienie Newtona”), ogólnie przyjęty punkt widzenia pozostał korpuskularny.

Patrząc na fale na powierzchni wody z dwóch rzuconych kamieni, można zobaczyć, jak nakładając się na siebie, fale mogą się zakłócać, czyli znosić lub wzajemnie wzmacniać. Na tej podstawie Fizyk angielski a lekarz Thomas Young przeprowadzili w 1801 roku eksperymenty ze wiązką światła przechodzącą przez dwa otwory w nieprzezroczystym ekranie, tworząc w ten sposób dwa niezależne źródła światła, analogicznie do dwóch kamieni wrzuconych do wody. W rezultacie zaobserwował wzór interferencyjny składający się z naprzemiennych ciemnych i białych prążków, który nie mógłby powstać, gdyby światło składało się z ciałek. Ciemne paski odpowiadały obszarom, w których fale świetlne z dwóch szczelin znoszą się wzajemnie. W miejscach, gdzie fale świetlne wzajemnie się wzmacniały, pojawiły się jasne pasy. W ten sposób udowodniono falową naturę światła.

8. Eksperyment Klausa Jonssona

Niemiecki fizyk Klaus Jonsson przeprowadził w 1961 roku eksperyment podobny do eksperymentu Thomasa Younga dotyczącego interferencji światła. Różnica polegała na tym, że zamiast promieni światła Jonsson użył wiązek elektronów. Uzyskał wzór interferencyjny podobny do tego, który Young zaobserwował dla fal świetlnych. Potwierdziło to słuszność założeń mechaniki kwantowej o mieszanej korpuskularno-falowej naturze cząstek elementarnych.

9. Eksperyment Roberta Millikana

Pomysł, że ładunek elektryczny dowolnego ciała jest dyskretny (to znaczy składa się z większego lub mniejszego zbioru ładunków elementarnych, które nie podlegają już fragmentacji), powstał jeszcze w początek XIX wieków i taki został utrzymany znani fizycy, jak M. Faradaya i G. Helmholtza. Do teorii wprowadzono termin „elektron”, oznaczający pewną cząstkę - nośnik elementarnego ładunku elektrycznego. Termin ten miał jednak wówczas charakter czysto formalny, gdyż ani sama cząstka, ani związany z nią elementarny ładunek elektryczny nie zostały odkryte eksperymentalnie. W 1895 r. K. Roentgen podczas eksperymentów z lampą wyładowczą odkrył, że jej anoda pod wpływem promieni padających z katody jest zdolna do emitowania własnych promieni rentgenowskich, czyli promieni Roentgena. W tym samym roku francuski fizyk J. Perrin udowodnił eksperymentalnie, że promienie katodowe są strumieniem ujemnie naładowanych cząstek. Ale pomimo kolosalnego materiału eksperymentalnego elektron pozostał cząstką hipotetyczną, ponieważ nie było ani jednego eksperymentu, w którym uczestniczyłyby pojedyncze elektrony.

Amerykański fizyk Robert Millikan opracował metodę, która stała się klasycznym przykładem eleganckiego eksperymentu fizycznego. Millikanowi udało się wyizolować kilka naładowanych kropelek wody w przestrzeni pomiędzy płytkami kondensatora. Dzięki naświetleniu promieniami rentgenowskimi możliwe było lekkie zjonizowanie powietrza pomiędzy płytami i zmiana ładunku kropelek. Po włączeniu pola między płytami kropla pod wpływem przyciągania elektrycznego powoli przesuwała się w górę. Kiedy pole zostało wyłączone, opadło pod wpływem grawitacji. Włączając i wyłączając pole, możliwe było badanie każdej z kropelek zawieszonych pomiędzy płytkami przez 45 sekund, po czym odparowały. Do roku 1909 udało się ustalić, że ładunek każdej kropli jest zawsze całkowitą wielokrotnością podstawowej wartości e (ładunek elektronu). Był to przekonujący dowód na to, że elektrony są cząstkami o tym samym ładunku i masie. Zastępując kropelki wody kropelkami oleju, Millikanowi udało się wydłużyć czas obserwacji do 4,5 godziny i w 1913 roku, eliminując kolejno możliwe źródła błędów, opublikował pierwszą zmierzoną wartość ładunku elektronu: e = (4,774 ± 0,009)x 10-10 jednostek elektrostatycznych.

10. Doświadczenie Ernsta Rutherforda

Na początku XX wieku stało się jasne, że atomy składają się z ujemnie naładowanych elektronów i pewnego rodzaju ładunku dodatniego, dzięki czemu atom pozostaje ogólnie neutralny. Zbyt wiele było jednak założeń na temat tego, jak ten układ „pozytywowo-negatywny” będzie wyglądać, a wyraźnie brakowało danych eksperymentalnych, które pozwoliłyby dokonać wyboru na korzyść tego czy innego modelu. Większość fizyków przyjęła model J. J. Thomsona: atom jako równomiernie naładowana dodatnia kula o średnicy około 108 cm, w której unoszą się ujemne elektrony.

W 1909 roku Ernst Rutherford (wspomagany przez Hansa Geigera i Ernsta Marsdena) przeprowadził eksperyment mający na celu zrozumienie rzeczywistej struktury atomu. W tym eksperymencie ciężkie, dodatnio naładowane cząstki alfa poruszające się z prędkością 20 km/s przeszły przez cienką złotą folię i zostały rozproszone na atomach złota, odbiegając od pierwotnego kierunku ruchu. Aby określić stopień odchylenia, Geiger i Marsden musieli użyć mikroskopu i obserwować błyski na płytce scyntylatora, które pojawiały się w miejscu uderzenia cząstki alfa w płytkę. W ciągu dwóch lat policzono około miliona rozbłysków i udowodniono, że w przybliżeniu jedna cząstka na 8000 w wyniku rozproszenia zmienia kierunek ruchu o ponad 90° (czyli zawraca). Coś takiego nie mogłoby się zdarzyć w „luźnym” atomie Thomsona. Wyniki wyraźnie potwierdziły tzw. planetarny model atomu - masywne maleńkie jądro mierzące około 10-13 cm i elektrony krążące wokół tego jądra w odległości około 10-8 cm.

Współczesne eksperymenty fizyczne są znacznie bardziej złożone niż eksperymenty z przeszłości. W niektórych urządzenia rozmieszczone są na obszarach o powierzchni kilkudziesięciu tysięcy kilometrów kwadratowych, w innych zajmują objętość rzędu kilometra sześciennego. A jeszcze inne wkrótce zostaną przeprowadzone na innych planetach.

Międzynarodowy zespół fizyków z Uniwersytetu w Guangzhou w Chinach i Instytutu Naukowego Weizmanna w Izraelu, kierowany przez Ulfa Leonhardta, po raz pierwszy zademonstrował nacisk światła na ciecz. Wyniki badań i wnioski z pracy naukowcy przedstawili w artykule opublikowanym w czasopiśmie New Journal of Physics.

Debata na temat natury ciśnienia, czyli, jak nazywają to także fizycy, pulsu światła, sięga 1908 roku. Następnie słynny niemiecki naukowiec Hermann Minkowski postawił hipotezę, że światło działa na ciecze, takie jak olej czy woda, przyciągając je do siebie. Jednak w 1909 roku fizyk Max Abraham obalił tę hipotezę i teoretycznie udowodnił, że światło wywiera nacisk na ciecze.

„Naukowcy debatują od stulecia na temat natury impulsu świetlnego i jego wpływu na środowisko. Odkryliśmy, że impuls świetlny nie jest głównym impulsem świetlnym. wielkość fizyczna, ale objawia się w interakcji światła z materią i zależy od zdolności światła do deformowania materii.

Jeśli ośrodek porusza się pod wpływem wiązki promieniowania, to Minkowski ma rację, a światło wywiera nacisk ciągnący. Jeśli medium jest nieruchome, Abraham ma rację i światło wywiera nacisk na ciecz” – mówi Leonhardt.

Dwa różne rodzaje ciśnienia można zidentyfikować eksperymentalnie, świecąc wiązką światła na powierzchnię cieczy. Wystarczy monitorować zachowanie cieczy - podnosi się lub opada. W pierwszym przypadku okazuje się, że światło przyciąga płynne medium do siebie, a w drugim odwrotnie. Dodajmy, że obie teorie są zgodne w pustej przestrzeni (kiedy współczynnik załamania światła ośrodka jest równy jedności), natomiast rozbieżne są, jeśli współczynnik załamania światła jest większy niż 1.

W swoim eksperymencie Leonhardt i jego współpracownicy wykazali, że powierzchnię cieczy można wygiąć do wewnątrz, dostosowując się do naporu światła, i można tego dokonać za pomocą stosunkowo szerokiej wiązki promieniowania w stosunkowo dużym pojemniku. Te dwa czynniki powodują, że światło tworzy wzór przepływu w cieczy.

Naukowcy wykazali, że pchające ciśnienie światła występuje zarówno w wodzie, jak i oleju, które mają różne współczynniki załamania światła. W ten sposób byli w stanie potwierdzić teorię Abrahama.

Autorzy nowego badania zauważają, że w poprzednich eksperymentach ich koledzy jedynie udowodnili, że Minkowski miał rację, wykazując przyciągające ciśnienie światła. Jednak według nich naukowcy wcześniej używali węższych wiązek światła i małych pojemników z płynem.

Leonhardt i jego zespół postanowili powtórzyć eksperyment, a kiedy użyli wąskiej wiązki i małego pojemnika, pojawiło się przyciągające ciśnienie światła. Oznacza to, że charakter ciśnienia zależy nie tylko od światła, ale także od samej cieczy – wyjaśniają naukowcy.

Aby zrozumieć naturę impulsu świetlnego, Leonhardt proponuje analogię z grą w bilard. Impuls świetlny ma nieco inną energię, powiedział, a różnica ta ma ważne aspekty.

„Wyobraźcie sobie grę w bilard, gracz bierze wskazówkę i uderza białą bilę, która z kolei musi przepchnąć kolorową bilę, a w całym tym łańcuchu ruchów pchających impuls jest początkowo przekazywany gracz przekazuje sygnał.

Światło może również popychać materię, chociaż te wypychania będą mikroskopijne, prawie niezauważalne. Jednak w niektórych przypadkach lekkie wstrząsy mogą być bardzo znaczące dla środowiska. Weźmy na przykład ogony komet.

Wielki astronom Johannes Kepler zaproponował setki lat temu, że ogon komety to materia wypychana przez światło z powierzchni jądra, ponieważ zawsze jest ona zwrócona w stronę przeciwną do Słońca. Dziś wiemy, że Kepler miał częściowo rację, ponieważ wiatr słoneczny uderza w materię z jądra komety i tworzy się warkocz.

Nazywamy więc impulsem zdolność światła do wprawiania materii w ruch i pojęcie to jest naprawdę ściśle powiązane z energią światła, chociaż jest od niej różne” – wyjaśnia Leonhardt.

Wyniki to badanie mają dla nauki znaczenie zarówno podstawowe, jak i praktyczne. Z punktu widzenia podstawowe teorie fizycy będą teraz lepiej rozumieć naturę światła. Leonhardt i jego współpracownicy odpowiedzieli na pytanie, czy impuls świetlny rośnie, czy maleje wraz ze wzrostem współczynnika załamania światła ośrodka: wynik zależy od zdolności światła do wprawiania cieczy w ruch mechaniczny i czy wiązka światła jest do tego zdolna, wówczas puls maleje, a jeśli nie, to wzrasta.

Co się tyczy znaczenie praktyczne nowe badania, mogą być przydatne w rozwoju innowacyjna technologia inercyjnie zawarta fuzja jądrowa, która polega na wykorzystaniu siły impulsu świetlnego do zainicjowania syntezy jądrowej.

Najnowsze prace będą dotyczyły także ogólnie technologii optycznej, w tym rozwoju i.

Dzięki żmudnym eksperymentom ze sztucznie utworzonymi zbiorowiskami roślin jednorocznych naukowcom po raz pierwszy udało się uzyskać bezpośredni dowód na to, że rozbieżność różne typy rośliny w różnych niszach ekologicznych - to naprawdę skuteczny mechanizm utrzymania dużej różnorodności gatunkowej zbiorowisk.

W ostatnio Na łamach wiodących czasopism naukowych toczy się gorąca dyskusja na temat tego, czy gatunki żyjące w tym samym miejscu (a jednocześnie konkurujące o te same zasoby) powinny zajmować różne nisze ekologiczne. Według tradycyjnych poglądów (zasada wykluczenia konkurencyjnego Gause’a) warunkiem ich współistnienia jest rozchodzenie się gatunków w różne nisze ekologiczne. Jednak ekolodzy badający zbiorowiska roślinne niejednokrotnie zwracali uwagę na fakt, że w przypadku roślin możliwości rozprzestrzeniania się gatunków w różne nisze są w zasadzie dość ograniczone. Liczba gatunków rosnących razem może w rzeczywistości być wielokrotnie większa niż liczba czynników ograniczających wzrost populacji poszczególnych gatunków („wymiary niszowe”).

Różnorodność drzew jest szczególnie imponująca w tropikalnych lasach deszczowych, gdzie na jednym hektarze może występować ponad sto różnych gatunków, choć wszystkie konkurują o te same zasoby, przede wszystkim światło. Nic dziwnego, że badanie właśnie takich lasów zmusiło amerykańskiego ekologa Stephena Hubbella do przedstawienia koncepcji neutralizmu, zgodnie z którą różne gatunki roślin mogą współistnieć nie ze względu na rozbieżność ich nisz, ale wręcz przeciwnie, ze względu na ich podobieństwo. Jeżeli zgodnie z koncepcją niszową, wraz ze wzrostem liczebności populacji gatunku w stosunku do innych gatunków, jego specyficzne (w przeliczeniu na osobnika) tempo wzrostu populacji powinno się zmniejszyć, wówczas model neutralistyczny zakłada, że ​​tempo to pozostaje niezmienione (patrz dwa dolne wykresy na ryc. 1).

Potwierdzenie hipotezy neutralizmu (a także przeciwnej hipotezy o obowiązkowej dywergencji gatunków w nisze) jest dość trudne w drodze bezpośrednich eksperymentów. Dlatego badacze zazwyczaj poszukują pośrednich sposobów weryfikacji. Przykładowo budują modele matematyczne w oparciu o pewne założenia dotyczące cech gatunków, a następnie porównują przewidywany przez model stosunek liczebności różnych gatunków w zbiorowisku z faktycznie obserwowanym w przyrodzie (patrz: W poszukiwaniu uniwersalnego prawo dotyczące struktury zbiorowisk biologicznych, czyli Dlaczego ekolodzy ponieśli porażkę?).

Jednak niedawno dwóch badaczy z Wydziału Ekologii, Ewolucji i Biologii Morskiej Uniwersytetu Kalifornijskiego w Santa Barbara w Kalifornii, Jonathan M. Levine i jego była studentka Jennike Hillrislamers (Janneke Hille Ris Lambers) podjęli odważną próbę eksperymentalnego przetestowania hipoteza, że ​​duże zróżnicowanie gatunkowe zbiorowisk utrzymuje się w wyniku dywergencji gatunków w różne nisze.

Obiektem ich badań były sztucznie utworzone zbiorowiska małych roślin jednorocznych rozwijające się na tzw. glebach serpentynowych (zawierających trudno rozpuszczalne, wolno rozkładające się krzemiany magnezu, patrz: Gleba serpentynowa). Ponieważ obszar badań – niedaleko Santa Barbara w Kalifornii – charakteryzował się klimatem śródziemnomorskim z suchymi, gorącymi latami i łagodnymi, wilgotnymi zimami, nasiona roślin jednorocznych w glebie zaczęły kiełkować późną jesienią i wczesną zimą, a powstałe rośliny wytworzyły nasiona wiosną lub wczesnym latem. Rośliny te są niewielkich rozmiarów – na powierzchni 1 m2 może rosnąć około 2,5 tys., a różnorodność jest dość duża – na powierzchni 25×25 cm2 można policzyć kilkanaście gatunków.

Najtrudniejszą rzeczą w tej pracy było zminimalizowanie możliwego wpływu dywergencji gatunków w różnych niszach. Autorzy musieli połączyć doświadczenia i model matematyczny rocznego wzrostu, a parametry modelu wyznaczono na podstawie bezpośrednich obserwacji plonów jednorocznych w dwóch sezonach wegetacyjnych: 2006–2007 i 2007–2008 (drugi rok był bardziej wilgotny). Łącznie wyselekcjonowano 10 różnych gatunków (przedstawicieli różnych rodzin) występujących powszechnie na tym obszarze. Wysiewano je na specjalnych poletkach tak, aby całkowita masa wszystkich nasion wynosiła 15 g na 1 m2. Początkowo przyjmowano równe wagi nasion wszystkich typów, czyli tworzono warunki o sztucznie dużym zróżnicowaniu. W wariantach, w których założono brak rozbieżności gatunkowej w niszach, sadzonki odchwaszczano (zmniejszając zagęszczenie populacji), a przyszły rok nasiona różnych roślin wysiewano w proporcjach odpowiadających uzyskanym w roku poprzednim.

Tempo wzrostu populacji szacowane dla wszystkich gatunków różniło się w tym przypadku bardzo znacznie – o rzędy wielkości, co nieuchronnie powinno prowadzić do szybkiego konkurencyjnego wykluczenia jednych gatunków przez inne. Tak więc, według obliczeń, szałwia szałwia kolumbaria za 20 lat powinna stać się absolutną dominującą, stanowiącą ponad 99% ogólnej liczby wszystkich roślin. Ogólna różnorodność gatunkowa zbiorowisk, w których efekt separacji nisz został specyficznie osłabiony, była istotnie niższa niż w obiektach kontrolnych.

Bardzo ważnym wynikiem badania jest potwierdzenie eksperymentalneże specyficzne tempo wzrostu populacji gatunku wzrasta w przypadkach, gdy jego względna liczebność spada. Tym samym faktycznie pokazana została sytuacja, w której każdy gatunek wraz ze wzrostem gęstości zaludnienia zaczyna ograniczać przyrost własnej populacji w większym stopniu niż rozwój swoich konkurentów.

Tajemnice Abydos

Luigi Galvani odkrył „elektryczność zwierzęcą” w 1790 roku przez czysty przypadek. Zauważył, że mięśnie żaby mimowolnie kurczą się, jeśli do jej nogi jednocześnie przykłada się płytki z różnych metali.
Tak to się zaczęło słynna historia, powstanie nowoczesnej cywilizacji „elektrycznej”.

W 1969 roku w fundamentach egipskiej świątyni Hathor (zbudowanej za panowania królowej Kleopatry VII – 69-30 p.n.e.) w Denderze odkryto wąskie komory o szerokości 1,1 m. Archeolodzy nie są w stanie nic powiedzieć na temat przeznaczenia tych pomieszczeń, ale tutaj są przedstawił starożytne lampy żarowe!
Podziemna komora znajduje się przy najdalszej ścianie świątyni, dwa piętra pod ziemią. Można się do niego dostać wąskim szybem. Szerokość tej komory wynosi 1 m 12 cm, a długość 4 m 80 cm. Dlaczego w tak brzydkiej, niedostępnej, wąskiej komorze proces oświetlenia elektrycznego ukazany jest na płaskorzeźbach ściennych?!
Egipska świątynia Hathor:

Starożytna lampa elektryczna?!

Istnieją trzy takie płaskorzeźby.
Wszystkie znajdują się w tym samym pomieszczeniu i poświęcone są temu samemu tematowi: grupa osób (kapłanów?) zajmuje się określonymi przedmiotami. Pierwszą analogią, która pojawia się, patrząc na te obiekty, jest lampa elektryczna.
Przedstawiają ludzi trzymających duże, przezroczyste przedmioty w kształcie kolb, w których widoczne są wijące się węże (w tekstach hieroglificznych towarzyszących płaskorzeźbom węże te określane są czasownikiem seref, co oznacza „świecić”, tutaj mowa o o jakiejś formie oświetlenia elektrycznego), rozciągające się na całej długości obiektu, to symboliczny obraz skręconego włókna.
Ostre ogony węży są wplecione w coś na kształt kwiatów lotosu: nie trzeba wiele wyobraźni, aby zobaczyć w nich naboje elektryczne.
Pod „lampami” znajdują się bardzo nietypowe przedmioty zwane Djed (później odnaleziono próbki Dżeda, na których wisiały miedziane druty), podobne do izolatorów, na których niczym kolumny spoczywają żarówki.
Z wkładu lotosu do „skrzynki” prowadzą kable w warkoczu w paski (w tekstach kabel ten nazywany jest „barką boga słońca Ra”). Bóstwo słoneczne przedstawione na pudełku „generatora” - Hekh lub według innej wersji Atum-Ra wskazuje na zaangażowanie tego pudełka z pewną energią.
Podobnie jak Jed, Heh był uosobieniem wieczności, a jego imię oznaczało „milion” lub ogólnie bardzo dużą liczbę. O ile izolator-Djed symbolizuje „nieustanną” wieczność, o tyle Heh uosabia wieczną zmianę cykli, co może symbolizować, cóż, bardzo duży zasób danego źródła energii.
Po prawej stronie płaskorzeźby stoi pawian demon lub bóg Horus z głową psa i trzyma w rękach noże, co można interpretować jako siłę ochronną lub niebezpieczeństwo emanujące ze skrzynki, a nawet jako przełącznik/przełącznik.
Uważa się, że ta podziemna komnata w fundamencie Świątyni Hathor („miejsce boga Horusa”) w Denderze była minielektrownią i tutaj przedstawiono tajną naukę o elektryczności, która była przekazywana tylko wtajemniczonym.
Jeśli chodzi o „lampy”, możemy je zidentyfikować jako lampy Crookesa. Brytyjski fizyk William Crookes (1832-1919) był jednym z pierwszych, którzy badali rozchodzenie się wyładowań elektrycznych w szklanych rurkach wypełnionych rozrzedzonymi gazami. Po podłączeniu do uzwojenia wysokiego napięcia cewki indukcyjnej takie lampy emitowały jasny blask.
Istnieje opinia, że ​​podobnych lamp używano podczas rysowania obrazów w różnych budynkach starożytnego Egiptu, na ścianach których nie znaleziono śladów sadzy, które zwykłe lampy „powinny” pozostawić. Z jednej strony jest to argumentem na poparcie powyższej hipotezy, z drugiej strony nie wiadomo, jakiego rodzaju lamp używali starożytni Egipcjanie, możliwe, że pomieszczenia zostały dokładnie oczyszczone z sadzy.
Ponadto odnaleziono wykazy wydatków eksploatacyjnych, w których wskazano ilość oliwy wydawanej pracownikom do oświetlenia pracy.
Sądząc po treści hieroglificznych napisów towarzyszących płaskorzeźbom, ci, którzy je wyrzeźbili, mieli już słabą wiedzę na temat prawdziwe znaczenie rysunki, najprawdopodobniej te obrazy, „odziedziczone” od wczesnej cywilizacji, stały się „kanoniczne” i z biegiem czasu były kopiowane, powtarzając jedynie kanon jeszcze starszych, świętych obrazów, jak współczesne ikony… mówiąc o ikonach i artefaktach na nich , takich jak te, więcej wkrótce..


































Stworzenie z nożami w rękach może symbolizować niebezpieczeństwo płynące z prądu w tym miejscu:

Kolumny zwane Djed są uważane za izolatory lub coś zbliżonego do procesu przesyłania prądu elektrycznego:

Jedowie istnieją w wielu różnych przedstawieniach:


Istnieją również małe obrazy żarówek, które są dość znane w życiu codziennym:


Z pomocą Ericha von Dänikena (na zdjęciu):


Przeprowadzono rekonstrukcję „starożytnej lampy”: