Апокаліпсис з точки зору професора Гокінга

Автор(и)

  • Н. O. Островець Національний технічний університет України «Київський політехнічний інститут імені Ігоря Сікорського», м. Київ, Україна
  • Т. В. Матвєєва Національний технічний університет України «Київський політехнічний інститут імені Ігоря Сікорського», м. Київ, Україна https://orcid.org/0000-0003-4079-4901
  • М. В. Чурсанова https://orcid.org/0000-0001-6977-7473

DOI:

https://doi.org/10.15421/272118

Анотація

В роботі представлено огляд загроз апокаліпсису, що за прогнозами науковців можуть реалізуватися вже протягом цього тисячоліття. Розглянуто матеріали з виступів, інтерв’ю, публікацій С. Гокінга, всесвітньо відомого фізика-теоретика та космолога, в яких озвучив проблему кінця світу на науковому рівні. За Гокінгом, однією з найбільших загроз є штучний інтелект. Він розвивається набагато швидше за темпи біологічної еволюції та скоро зможе самостійно відтворювати собі подібних. Вченими було підписано відкритий лист, що закликає ні в якому разі не наділяти штучним інтелектом військову техніку, адже при виході з-під людського контролю це буде більш небезпечним, ніж ядерна зброя. Серед інших можливих сценаріїв апокаліпсису Гокінг виділяв вторгнення позаземної цивілізації, зміни клімату, поширення генно-модифікованих вірусів. Зростаючі темпи глобального потепління, викликані парниковим ефектом, можуть зробити клімат Землі схожим на Венеру. А розробки біологічної зброї за допомогою генної інженерії можуть випустити вірус, який знищить людський імунітет. Віруси еволюціонують навіть без людського втручання, і реальність такої загрози ми спостерігаємо зараз під час пандемії COVID‑19. Розглянуті в роботі катастрофи є результатом розвитку людства і можуть стати причиною його знищення. Задачею наукової спільноти є не допустити таких сценаріїв. Більш того, запорукою виживання людської цивілізації Гокінг вважав створення колоній у космосі.

##submission.downloads##

Опубліковано

2021-12-29