GuruAnimale.com

10 Плашилото технологии на идната генерација, од каде што беше подобро да се откаже

Колку подлабоко да одиме во 21-от век, на повеќе јасно се појави фантастични можности кои се наоѓаат пред нас. И повеќе од јасно сметаме мрачните чувства кога размислуваме за нив. Пред да десет застрашувачки технологии, кои ќе биде подобро никогаш да не постоеле. Кога ќе се запознаат со нив, ќе стане очигледно дека многу од овие технологии може да се стави на добар употреба. Но, важно е да се подготви на линијата на поделба меѓу самата технологија и како таа може да се користи.

Земете, на пример, нанотехнологијата. Како што се развива, можете да ги користите за да се стави крај на постојан дефицит, се исчисти животната средина, да ја менуваат човечката биологија. Но, тие исто така може да се користи за многу брзо уништување на нашата планета. Значи, кога станува збор време да се развие и да ги користат овие футуристички технологии, ние треба да им пријде на ова со целосна одговорност. Можеби ќе дојде да се верува дека посебна серија на технолошкиот развој и ризиците кои се вклучени не се во вредност на бенефиции. На пример, вештачки superintelligence.

Некои технологии се објективно опасно. Тоа е она што го вели за Патрик Лин, директор на етика + Новите науки група во Калифорнија Политехничкиот Државниот универзитет во:

"Идејата дека технологиите се неутрални или немаат врска со моралот, тоа е мит кој треба да се dispelled. Дизајнерот може да се даде на етика на создавањето, дури и ако објектот нема самата морална агент. Оваа функција може да биде многу незабележителни во повеќето случаи, но некои технологии се родени од зло и да имаат корист апликација, на пример, гасните комори. Освен тоа, иако технологијата може да биде на почетокот се добри или лоши, сите се согласуваат дека поголемиот дел од технологии се и добри и лоши апликации. Ако веројатноста за употреба на технологија за зло е повисока отколку во името на доброто, можеби, оваа технологија не е вреди да се следи. "

воена нанотехнологијата

Едвај да може нешто се уште може да се стави крај на нашето владеење на Земјата побрзо од воено - или многу оштетени - нанотехнологијата, молекуларна собранието.

Оваа закана доаѓа од два исклучително моќни сили: неконтролираното само-репродукција, и експоненцијален раст. Нихилистички владата, не-државните агент или физичко лице може да се развие микроскопски машини кои ќе ги апсорбира критични ресурси на нашата планета како шумски пожар (многу брзо), и плодовите на голем број и оставајќи бескорисни нуспроизводи во својот пат - футуристите се јавите ова сценарио "сива лигите. "

Нанотехнологија теоретичар Роберт Freitas предложи неколку опции за појава на деструктивни нанотехнологијата светот, вклучувајќи сивата прашина сива планктони сива лишаи и т.н. убиец биомаса. Сива прашина ни ги затвори од соларната светло сива планктони ќе се состои од одгледува на репликаторите на океанското дно, што ќе јадете целата земја богата со сива лишаи јаглерод ekologiyu- уништи домашен геологија и биомаса убиец напад на различни организми.

Според Freitas, најлошото сценарио "глобална ecophagy" ќе трае околу 20 месеци, што е повеќе од доволно за да се изгради ефикасна одбрана. Под заштита на Freitas има на ум контрамерки во форма на само-реплицира нанотехнологијата или систем кој оневозможува на внатрешниот механизам на nanobots. Од друга страна, ние би можеле да распоредат "активна штит" во однапред, но повеќето експерти во областа на нанотехнологијата се согласуваат дека тоа ќе бидат бескорисни. Затоа, неопходно е да се развие и поддржи мораториум на создавање на борба против нанотехнологијата.

интелигентни машини

Еден ден ќе им даде на машини за вештачки ум, тоа е прифатено како очигледен. Но, пред да се движи напред на таа иднина, ние треба да се размислува многу сериозно. Тоа може да биде премногу тешка за да се изгради функционален мозок во внатрешноста на компјутерот - и ова се однесува и на животински и човечки emulations.

Назад во 2003 година, филозоф Томас Metzinger тврди дека тоа ќе биде страшно неетички да се развие софтвер кој може да се доживее страдање:

"Што би рекле ако некој дојде и рече:" Ние сакаме да се генетски менување на ментално ретардирани човечки бебиња! Поради некоја причина прифатливи за научниот напредок, ние треба бебиња со одредени когнитивни и емоционални пречки да студираат на нивниот постпартална психолошки развој - Итно се потребни средства за оваа важна и иновативни тип на истражување! ". Ќе помислите дека ова не само што е апсурдна и дискутабилна, но опасна идеја. Таа не ќе го пропушти ниту комисија во демократскиот свет етика. Сепак, комисиите на тековната етика не гледам дека првите машини кои ги исполнуваат минималните услови на свесното искуство може да биде само како ментално ретардирани деца. Тие можат да страдаат од сите видови на функционална и претставувачки дефицити. И тие се субјективно ќе се чувствувате на овој недостаток. Покрај тоа, тие нема да имаат никаква заштита и без претставници во комитетите за етика ".

Видео: 5 стереотипи за технологија, од каде што е време да се даде

Futurologist Луис Helm се согласува:

"Компјутерите се особено добри, бидејќи тие може да се пресмета збирот на милиони колони во табелата, а не се уморни, не е здодевно. Бидејќи ние се планира да се користи вештачка интелигенција за да го замени ментална работа, мислам дека тоа би било неморално да се создаде разумна програма. Подигнување на свесното суштество во автомобилот и го направите да работи за вас - тоа е речиси ропство. Покрај тоа, свест - кревка работа. Неколку погрешно кодирани гени во луѓето може да предизвика Даунов синдром, шизофренија, аутизам или епилепсија. Што е тоа: Неправилно се програмирани форма на свеста? На пример, неколку добро спонзорирана ВИ истражувачите сакаат да се рекреираат на човековата интелигенција во машини со симулирање на биолошката структура на човечкиот мозок. Очекувам па дури и малку надеж дека овие првите обиди на моделирање ќе биде премногу груби за да навистина се изгори. Но, во случај на "успех", првите резултати ќе се генерираат, секако, чудно, непријатно, и исечените состојба на субјективното доживување. Како програмер, јас сум се противел на самосвесни вештачката интелигенција. Не затоа што тоа не е кул. А бидејќи бев морално против ропството, тортура и лош код. "

вештачки superintelligence

Стивен Хокинг на почетокот на оваа година, на вештачката интелигенција може да ни биде најлошата грешка во историјата. Многу пати сме разговарале за фактот дека појавата на натчовечка интелигенција може да биде катастрофа. Појавата на системи кои се побрзо и попаметно отколку што се, ги фрли во позадина. Се наоѓаме на милост и немилост на она што вештачки superintelligence желба - и не е јасно дали ќе биде во можност да се создаде пријателска вештачката интелигенција. Ние мора да се реши овој проблем што е можно побрзо, во спротивно на развојот на вештачки superintelligence може да се стави крај на човечката раса.

време на патување

Видео: 10 невообичаени на мобилност за деца и млади

Не дека јас силно веруваат во можноста за патување низ времето (не сите ние не патуваат во времето во моментов?), Но да шутнат тоа не е неопходно да сметка. Покрај тоа, ние треба да се држат настрана од неа.

Време на патување може да биде проклето опасна. Секое филм за згрчена рокови ви кажам за потенцијалните опасности, вклучувајќи непријатни парадокси. И дури и ако некоја форма на квантната патување низ времето ќе биде можно - кога создавање на сосема нов и посебен рокови - културен и технолошки размена помеѓу различните цивилизации е веројатно нема да заврши добро.

читателите мисли



Изгледите за постоењето на машини кои може да чита мисли и сеќавања на луѓе на растојание и не, со нивна согласност и без грижа. Но, ова е веројатно нема да биде можно додека човечкиот мозок станува се повеќе тесно интегриран со мрежата, и други канали за комуникација.

Минатата година, на пример, истражувачите од Холандија се користат податоци од скенирање на мозокот и компјутерски алгоритми за да се идентификуваат, кои писма изглед на човекот. Овој пробив покажа можноста за реконструкција на човековата мисла со невиден степен на детали на трети лица - вклучувајќи го и она што го гледаме, она што го мислиме, дека ние се сеќавам. Ако овие уреди падне во канџите на еден тоталитарен режим, или полициска држава, животот станува невозможно и неподнослива. Светот ќе биде слична на Џорџ Орвел, во која ќе бидат казнети дури и за злосторствата извршени во мисла.

Уреди за хакирање на мозокот

Постои можност дека нашиот ум може да се промени, заедно со нашето знаење и спомени. Кога ќе го добиеме чипови во мозокот и сите бариери паѓаат, нашите умови ќе биде отворена за целиот интернет и сите зла.

Првиот чекор кон оваа цел ние веќе направено. Не така одамна, меѓународен тим на невролози почетокот на експериментот, кој ќе им овозможи на учесниците да комуницираат од мозокот на мозокот преку интернет. Кул, што мислат, но таквите технички телепатија отвора Пандорината кутија. Напаѓачот може да биде во можност да ги менувате спомени и намерите на жртвата. И што ќе се случи ако таква можност ќе ја добие целата организација или параноична влада?

Автономна роботи да се убиваат луѓе

Видео: Што Top5 девојки како на човек

Потенцијалот на автономна машини кои убиваат луѓе, ги плаши сите - а можеби и ова е прва точка на дневниот ред, со која треба да почнат да се борат.

Овде е она што футуристот Мајкл Latorre:

"Ние немаме автомобили, кои имаат заедничка интелигенција, блиску до нивото на човекот. Но, за работењето на автономна роботи со смртоносна способностите на човечкото ниво на интелигенција е потребно. Изградба на сите видови на роботски воени единици веќе во полн замав. Роботски тенкови, авиони, бродови, подморници, роботи, војници - сето тоа е можно денес. За разлика од беспилотни летала далечински контролирани воени роботи може да се идентификуваат цели и да ги уништи без човечка покажувач и со цел да се пука. Опасноста од таквата технологија треба да биде очигледно, но не треба да се ограничи на заканата од "пријателски оган", кога робот случајно убиваат луѓе на нивна страна во конфликтот, па дури и невини цивили. Каде најголема опасност лежи во трката за меѓународни оружје што може да се сврти ако било која земја ќе почне да се гради автономна борбени роботи. По неколку циклуси на подобрување, трката е создавање уште повеќе моќни воени роботи може да помине прагот, кога на последната генерација на автономна роботи ќе биде во можност да се надминат сите воениот систем под контрола на луѓе. И тогаш, или случајно или намерно, човештвото може да се стави во една страшна ситуација ќе биде поразен од страна на жртвите од борбите роботи ".

Автомобилизам патогени

Видео: Топ 10 опасни змии

Ова е уште една тема која се однесува на многу. Во 2005 година, Реј Kurzweil и Бил Џој истакна дека објавувањето на геномите на смртоносни вируси од целиот свет ќе биде рецепт за смрт. Има секогаш ќе биде идиот или еден куп на фанатици, кои ќе ги преземе овие информации во употреба и реконструиран вирусот од нула или менувате постоечките вируси, што ги прави уште поопасен и потоа отпуштете во светот. Се проценува, на пример, дека на пат е изменета на птичји грип може да го уништи половина од населението во светот. Но, научниците од Кина и сите заедно птичјиот и свинскиот грип, создавање на овој мутант. Нивната цел, се разбира, да се разбере, знае на непријателот и да се развие можни контрамерки, пред да се пробие на вистинска пандемија. Но, секогаш постои опасност дека вирусот избега од лабораторија и да предизвикаат хаос меѓу луѓето. Или дека ќе ги прифатат и да ја ослободи.

Тоа е време да се размислува за оваа грозна можност пред да се случи нешто ужасно.

Виртуелна затвор и тортура

Што ќе биде тортура и затвор, ако луѓето можат да живеат стотици или илјадници години? Што ќе се случи со затворениците ако нивните умови се натоварени во виртуелниот свет? Етика Ребека Роуч истражува овие страшни сценарија:

"Предностите се очигледни бесмртноста - но заедно со тоа може да ја зголеми казната. Ако триесет години затвор смета за премногу блага казна, сторителот може да даде живот и земајќи ги во предвид зголемениот животен век. Доживотен затвор ќе се сврти кон неколку стотици години, на пример. Сепак, јавноста може да бидат поскапи содржат такви криминалци. Но, ако на зголемување на очекуваното траење на животот ќе биде достапен насекаде, стогодишници несомнено придонесе за долговечни трудот.

Иначе качувањето на сторителот и забрзување на своите милион пати ќе му овозможи да "работат надвор" кривично дело казниво со 1000 години за осум часа и половина. Тоа ќе биде поевтино отколку да се задржи сторителот во парите на даночните обврзници ", која е 1000 години. По ова, концентрирани казна може да се следат рехабилитација, како и за неколку часа ".

Тоа е страшно. Се надеваме дека човештвото не се согласуваат.

креирање на пеколот

Оваа опција е сличен на претходниот. Некои futurologists предвиди употреба на создавање raya- на напредни технологии, вклучително и за симнување на свеста и виртуелната реалност што ќе се трансформира земјата во рај. Но ако може да создаде рај, можете да креирате и пеколот. Оваа перспектива е особено застрашувачки кога ќе се разгледа на неопределено очекуваното траење на животот, како и речиси неограничени можности на психичко и физичко казнување. Тешко е да се замисли дека некој е во принцип се подготвени да се развие такво нешто. Но дека некој може да биде вештачки superintelligence.

Сподели на социјални мрежи:

Слични
© 2022 GuruAnimale.com