Дали ще дойде края на света, когато "копаенето" на биткойни свърши?

Първо да уточним какво е изкуствения интелект (AI).
Изкуственият интелект е клон на компютърните науки, насочен към създаването на системи, способни да изпълняват задачи, които обикновено изискват човешко мислене.
Тези задачи включват учене, разсъждаване, решаване на проблеми, възприемане, разбиране на езика и дори разпознаване на модели или емоции.
Така компютрите могат да анализират данни, да разпознават модели, да вземат решения и да предвиждат бъдещи резултати.
Повече за видовете изкуствен интелект и как да ги използвате можете да прочетете в тази статия:
Какво е изкуствен интелект и как да го използваме?
Към 2025 г. изкуствения интелект (AI), който се ползва масово (ChatGPT) е усъвършенстван чат-бот, който може да отговаря на въпроси по човекоподобен начин, което заблуждава потребителите, че изкуствения интелект наистина е "изкуствен интелект".
Само да припомня на незапознатите, че чат-ботове има от десетилетия.
Аз ги помня от mIRC чата.

Има много статии, които разглеждат въпроса дали е опасен изкуствения интелект (AI) и какви са рисковете от използването му.
Например тази:
15-те най-големи риска, свързани с изкуствения интелект
За мен най-големите рискове от използването на изкуствения интелект (AI) са свързани с поверителността на личните данни.
Всички помним какво се случи с "Кеймбридж Аналитика" през 2018 г.
"Кеймбридж Аналитика" се спасява с фалит, започна процедура за несъстоятелност
Никой, дори и създателите на изкуствените интелекти (AI), няма как да гарантират, че няма да има кражба на лични данни и използването им срещу потребителите.
От друга страна инсталирането на изкуствените интелекти (AI), като ChatGPT, на всяко електронно устройство води до рискове свързани със сигурността.
Няма как един обикновен потребител да е 100 % сигурен, че чат-бота, който ползва на смартфона си не работи паралелно по други процеси, докато потребителя не ползва смартфона си.
Това важи за всички смарт-устройства, на които може да се инсталира изкуствен интелект (AI) - телевизори, хладилници, бойлери, перални машини.
Всяко едно устройство, което има процесор може да бъде хакнато с помощта на изкуствен интелект (AI) и после колективната процесорна мощ на всички хакнати устройства да бъде използвана за хакерски атаки срещу сървъри на ядрени централи, комуникационни мрежи, здравно-осигурителни структури, финансови системи, военни обекти и т.н.
Рисковете за сигурността свързани с инсталирането на изкуствен интелект (AI) са огромни.
Хакерите и злонамерените участници могат да използват мощта на AI, за да разработват по-усъвършенствани кибератаки, да заобикалят мерките за сигурност и да откриват уязвимости в системите.
Възходът на автономните оръжия, задвижвани от AI, поражда и опасения относно използването им от нелоялни държави или други субекти.
Особено когато имаме предвид потенциалната загуба на човешки контрол в критичните процеси на вземане на решения.
Тук аз не говоря за изкуствен интелект тип "Скайнет" от филмите за "Терминатор".
Става дума за злонамерени хора, престъпници, терористи, ислямисти и всякакви други радикали, които могат да препрограмират изкуствения интелект (AI) да работи в полза на престъпниците и във вреда на обикновените потребители.

Опасност има и от управляващите политици, които могат да използват изкуствения интелект (AI) във вреда на гражданите и техните права.
Това вече се случва в САЩ от 11 септември 2001 г. насам.
Уж заради борбата с тероризма личните свободи и гражданските права на американците бяха нарушени с така наречения Патриотичен акт.
Сега същото може да се случи с изкуствения интелект (AI), които може да се използва за подслушване и проследяване на големи групи хора, за неутрализиране на гражданската активност и възпрепятстване на упражняването на основни граждански свободи като правото на протест или тайната на вота по време на гласуване на избори и референдуми.
Това и в момента се случва, като българските репресивни органи - МВР, ДАНС, прокуратура - следят българите през социалните мрежи и при всеки опит за гражданска активност те противодейства с арести, данъчни проверки, обиски и разследвания на невинни граждани.
Така в ерата на изкуствения интелект (AI) гражданите се оказват виновни до доказване на противното, което противоречи на Конституцията и законите на Република България.

Друг основен риск е използването на изкуствения интелект (AI) за разузнаване.
Това означава, че ЦРУ, МИ6, ГРУ или Мосад могат да използват чат-ботове за откриване на "потенциални терористи", което от своя страна напомня на филма "Специален доклад", където арестуваха "потенциални убийци" преди да са извършили престъплението, за което са обвинени.
Какво би се случило, ако хора набедени за "потенциални терористи" бъдат убити от ЦРУ, МИ6, ГРУ или Мосад?
Кой ще носи отговорност за подобни убийства - изкуствения интелект (AI) или този, който е наредил бомбардировката над "потенциалните терористи"?
И какво се случва ако изкуствения интелект (AI) е сгрешил и убитите хора не са терористи, а обикновени граждани?

От друга страна изкуствения интелект (AI) води до затъпяване на огромни групи от населението.
Потребителите стават зависими от изкуствения интелект (AI), загубват критичното си мислене и в крайна сметка се превръщат в "стадо", лесно контролирано от "овчарите" през изкуствения интелект (AI).
Прекалената зависимост от системите за AI може да се отрази до намаляне на креативността, уменията за критично мислене и човешката интуиция.
Постигането на баланс между подпомаганото от AI вземане на решения и човешкия принос е от жизненоважно значение за запазване на нашите когнитивни способности.

Никой не си дава ясна сметка колко много предразсъдъци и дискриминация има в Интернет.
Системите с изкуствен интелект (AI) могат нарочно да затвърдят или засилят обществените предразсъдъци поради подадени пристрастни данни за обучение или умишлено въвеждане на дискриминационни алгоритми.
Не е възможно да се премахне дискриминацията и да се гарантира справедливост и безпристрастни алгоритми при изкуствения интелект (AI), когато той е разработен от програмисти, които имат свои собствени предразсъдъци и политически пристрастия.
Това съответно ще доведе до дезинформация и манипулация на съдържанието генерирано от изкуствения интелект (AI).
Съдържанието, генерирано от изкуствен интелект (AI), като например дълбоките фалшификати, допринася за разпространението на невярна информация и за манипулирането на общественото мнение.
Трябва да се положат усилия за откриване и борба с дезинформацията, генерирана от изкуствен интелект (AI), но за това са нужни регулаторни механизми и изменения в законите, които се случват толкова бавно, че докато бъдат приложени на практика те стават безсмислени.
В проучване на Станфордския университет относно най-неотложните опасности, свързани с AI, изследователите твърдят:
“Системите с изкуствен интелект се използват в услуга на дезинформацията в интернет. Това им дава потенциал да се превърнат в заплаха за демокрацията и в инструмент на фашизма. Съществува опасност те да подкопаят социалното доверие – от deep fake видеа до онлайн ботовете, които манипулират обществения дискурс като симулират консенсус и разпространяват фалшиви новини. Технологията може да бъде използвана от престъпници, идеологически екстремисти или просто групи със специални интереси, за да манипулират хората с цел икономическа изгода или политическо предимство.”

Най-голямата опасност от изкуствения интелект (AI) е масовото инсталиране на подобни програми с неизвестен произход на сървъри, сайтове, програми за обработка на информация, статистически системи, текстообработващи програми, системи за сигурност и т.н.
Забелязвам, че дори Гугъл имат изкуствен интелект (AI).
Масовата употреба на изкуствения интелект (AI) ще доведе до огромни опасности за сигурността на Интернет потребителите и на съществуването на самата глобална мрежа.
Изкуственият интелект (AI) не се подчинява на мрежовите протоколи, няма гаранции за сигурността му, няма сертификати за произхода и безопасността на чат-ботовете.
Всеки програмист в гаража си може да програмира изкуствения интелект (AI) да работи срещу Интернет потребителите и цялата глобална мрежа.
В момента докато пиша тези редове милиарди смарт-устройства обработват терабайтове информация подадена им от чат-ботовете и никой на планетата Земя не знае кой, за какво и как използва тази информация.
Факт е, че хората на 21 век ги мързи да мислят.
И този факт се използва от малка група хора, които искат да контролират цялото население на планетата, да използват парите на гражданите за лично облагодетелстване и да прокарват в обществата политиките, които биха им донесли ползи на тях самите.
Накрая ще се окаже, че този който контролира изкуствения интелект (AI), той контролира и хората.
В някакъв момент може да се окаже, че зад "Скайнет" от филмите за "Терминатор" стои човек, който нарежда на машините как да унищожат човечеството, а не машинен изкуствен интелект.
Най-опасен е естествения интелект, който стои зад изкуствения интелект (AI) и му нарежда какво да прави и как да действа.
Точно хората могат да доведат света до ядрена война, а не изкуствения интелект "Скайнет".
"Скайнет" ще направи това, което програмистите му кажат да направи.
И ако "Скайнет" бомбардира Вашингтон, Лондон, Брюксел, Москва или Пекин, то виновни ще са хората, които са го накарали да го направи, а не самия изкуствен интелект (AI).

Дори и лидерите на технологичния сектор призоваха да бъдат разработени, внедрени и одитирани от независими експерти протоколи за безопасност за изкуствения интелект (AI).
Мъск и експерти от индустрията призовават за пауза в развитието на системите с изкуствен интелект
„Мощните системи с изкуствен интелект трябва да бъдат развити само след като сме се уверили, че техните ефекти ще бъдат положителни, а рисковете от тях – управляеми“, гласи писмото.
Текстът описва подробно потенциалните рискове за обществото и цивилизацията от системите за изкуствен интелект под формата на икономически и политически смущения.
Освен това те призовават разработчиците да работят заедно с политиците по регулацията.
Засега обаче нищо такова не се е случило от 2023 г. до днес.

Тук искам да припомня, че през 2009 г. в Интернет беше пусната първата криптовалута - биткойн.
Твърди се, цитирам:
"Платежните единици биткойн се създават като възнаграждение за извършена изчислителна работа по криптиране, при която потребителите проверяват съществуващите блокове от блоковата верига и създават нови с помощта на изчислителната мощ на машините си. За да е легитимен, всеки блок трябва да съдържа доказателство за извършената работа, което подлежи на проверка от другите участници, когато на свой ред получат нов блок за изчисление. Процесът на придобиване чрез изчисления се нарича „добиване“ или „копаене“ (на английски: mining или „майнинг“). Добиването е замислено така, че да са необходими значителни изчислителни ресурси, а наличното количество блокове да остава оскъдно. Наименованието е заимствано от други видове добив на оскъдни ресурси (например на злато), които изискват значително време и производствени ресурси. Колкото повече изчислителна мощ се включва в добиването, толкова повече сложността на математическата задача се увеличава, като по този начин скоростта на добиване винаги остава ограничена и предсказуема и се запазва децентрализацията на мрежата."
Само че в някакъв момент за добиването на биткойни ще е нужна процесорната мощ на милиони и милиарди ASIC чипове.
В някакъв момент ще стане невъзможно за обикновени хора да "копаят" биткойни.
Единственият начин "копаенето" на биткойни да продължи ще бъде чрез "заразяването" на компютри, сървъри и смарт-устройства с вируси и използването на техните процесори за изчисления на блокове.
Точно тук чудесно се връзва инсталирането на изкуствени интелекти (AI) на всякакви устройства, сайтове, програми и сървъри.
Изкуствените интелекти (AI) могат да бъдат използвани за овладяване на процесорната мощ на всички чипове на планетата и използването им за добиване на биткойни.
Никой обаче не знае какво точно "изчисляват" процесорите и какво ще стане, след като бъдат "добити" всички биткойни.
Тази неопределеност около биткойните ми напомня за един разказ на Артър Кларк - Деветте милиарда имена на Бога.
Дали ще дойде края на света, когато "копаенето" на биткойни свърши?
Никой не може да отговори на този въпрос!

За финал искам да ви предложа две статии.
В едната статия е представена сексапилната, но интелигентна Аниела Русева – изпълнителен директор на Webit.
Аниела Русева: AI е тук, въпросът е кои ще са подготвени утре
Тя говори изключително положително за изкуствения интелект (AI).
Разбираемо е, все пак на нея това й е работата - да рекламира и да продава изкуствения интелект (AI) на бизнеса в България.

Аниела Русева: Нито една технологична революция досега не е унищожила хората

В другата статия е представена милитаристичната страна на изкуствения интелект (AI).
Как технологичните гиганти превърнаха Украйна във военна лаборатория за изкуствен интелект
След като прочетете тази статия си задайте следния въпрос:
Какво би станало ако изкуствения интелект (AI) бъде използват във войната на Украйна срещу Русия?
Примерно чат-бота ChatGPT да бъде използват за "хакване" на милиарди устройства, които едновременно да атакуват инфраструктурата на Руската федерация.
Възможно ли е изкуствения интелект (AI) вече да е бил използван във войната на Украйна срещу Русия?
Възможно ли е с помощта на изкуствения интелект (AI) войната срещу Русия да стане глобална?
Възможно ли е всеки човек, чието смарт устройство е използвано за хакерска атака срещу Руската федерация да се превърне във враг на Москва?
Възможно ли е изкуствения интелект (AI) да бъде използван от украинците за атака срещу инфраструктура на САЩ и НАТО, а за това да бъде набедена Русия и това да бъде използвано като casus belli (повод за война) на Колективния Запад срещу Русия?
Кой ще носи отговорността за военни атаки извършени с помощта на изкуствения интелект (AI) - неговите създатели, неговите потребителите или военните командири наредили използването на милиарди смарт устройства за атаки срещу цивилни и военни обекти?

А може би просто ме гони параноята!
Нищо лошо няма да се случи от масовото използване на изкуствения интелект (AI).
Изкуственият интелект (AI) е добронамерен и хората, които го използват също имат добри намерения.
Никой нормален човек не би използвал изкуствения интелект (AI), за да унищожи цяла държава или цели народи.
Такова нещо никога не би се случило.
Сега ще си пусна да гледам американския филм "The Sum of All Fears / Всички страхове (2002)", а после ще гледам американския филм "Live Free or Die Hard / Умирай трудно 4 (2007)".
И двата филма са художествена измислица и не могат да се случат в реалния живот, което е много хубаво.
Важното е да сме здраво стъпили на земята и да не живеем във фантазиите на Холивуд.
Радвам се, че изкуствения интелект (AI) е нашия помощник в мисленето.
Даже в някакъв момент може би трябва да оставим процеса "мислене" в ръцете на изкуствения интелект (AI).
Изкуствения интелект (AI) знае какво да прави, докато ние, обикновените хора, не сме достатъчно компетентни да вземаме важни решения за живота и за бъдещето си.
Както стана с приемането на еврото в България - обикновените хора не можеха и не могат да решават най-важните финансови въпроси на държавата.
Такива решения се вземат само с помощта на изкуствения интелект (AI).
Долу простия естествен интелект, да живее изкуствения интелект (AI)!
Слава на Директорите на Корпорациите!
Слава на Лидерите на Свободния свят!
Слава на Началниците от Колективния Запад!
Слава тям, вечна слава!

П.п.: Всички снимки използвани в тази статия са генерирани с изкуствен интелект (AI).
Ето какъв според изкуствения интелект (AI) ще бъде крайния резултат от масовата употреба на изкуствения интелект (AI):

Честито на всички!
