Вход

Дж. Билл. Почему мы не нужны будущему

Рекомендуемая категория для самостоятельной подготовки:
Реферат*
Код 297772
Дата создания 18 марта 2014
Страниц 15
Мы сможем обработать ваш заказ (!) 29 марта в 18:00 [мск]
Файлы будут доступны для скачивания только после обработки заказа.
1 050руб.
КУПИТЬ

Описание

В работе представлены идеи Дж. Билла по публикации "Почему мы не нужны будущему" ...

Содержание

Справочная аннотация 3
ВВЕДЕНИЕ 4
ОСНОВНАЯ ЧАСТЬ 6
1. Проблема будущего человечества с позиции Дж. Билл 6
2. Исследование проблемы влияния информационных технологий на будущее человечества 10
ЗАКЛЮЧЕНИЕ 14
CПИСОК ИСПОЛЬЗОВАННОЙ ЛИТЕРАТУРЫ 15

Введение

Актуальность проблемы. Одной из актуальных проблем в настоящее время является влияние информационных технологий на будущее человечества. Всеобщая компьютеризация, которая была начала еще с 90-е годы XX века, с одной стороны, значительно упростила обращение информации, поспособствовала развитию различных наук, в т.ч. физики, биологии, нанотехнологий, информационных технологий и др., а с другой, породила проблему поглощения роботами, новыми технологиями в области информационных систем будущего человека. Несмотря на всю невероятность теории, что будущем будут править роботы, она является не беспочвенной и подкрепляется различными гипотезами, отраженными исследователями различных наук.
Дж. Билл в своем эссе «Почему мы не нужны будущему» обосновал методы решения данной проблемы, которую он в идит в торможении процессов информатизации, в особенности в сферах химической, ядерной промышленности и нанотехнологий, т.к. это способно разрушить не только точечно жизни людей, но ликвидировать жизнь на Земле.
Проблеме влияния информационных технологий на будущее человечества посвящено значительное количество публикаций. Решений, предлагаемых для снижения риска несколько, однако каждой из них имеет свои преимущества и недостатки. Обобщенно можно представить три основных подхода к решению: полный отказ от развития информационных технологий, т.к. угроза ликвидация человечества слишком высока (пессимистический сценарий); игнорирование проблемы, т.к. она является незначительной и зачастую надуманной, отсутствие развития приведет к куда более значимым проблемам; развитие информационных технологий (оптимистический сценарий), но с контролем на ЯБХ-, и на ГНР-технологий, чтобы не допустить осуществления оружия массового поражения и знаний, таковое позволяющих (средний сценарий).
Развитие технологий предполагает все более масштабное и проникающее управление естественными процессами, обеспечиваемое инструментальным опосредованием. Эта историческая тенденция согласуется с прогнозами об усиливающемся контроле над биосферой и вторжении в самые интимные основы человеческого бытия, а также о переносе интеллектуальных процессов на искусственные носители.
Программисты Г. Моравек [1] и Дж. Билл [2] уверены в невозможности имплантировать в интеллектуальную программу алгоритмы морали, т.к. подобные ограничители могут быть вписаны только извне. Между тем интеллект способен вырабатывать механизмы самоконтроля. Если в общественном сознании, со своей стороны, не возобладают луддитские настроения, то правдоподобным представляется сценарий сохраняющего симбиоза, без которого не может обойтись биологически слабеющее человечество, по вектору дальнейшей «денатурализации» социоприродных систем.
Однако для счастливого будущего, что отражено в исследовании А. П. Назаретяна, «необходимо найти альтернативные выходы для наших творческих сил вне культуры бесконечного экономического роста; ибо хотя этот рост и был в значительной степени нашим благословением в течение нескольких сотен лет, но это не принесло нам неомраченного счастья, и нам нужно теперь выбрать между устремленностью к неограниченному и ненаправленному росту посредством науки и техники и явными сопутствующими этому опасностями» [3].
Недостатком известных способов является то, что если человек перестанет думать и размышлять, то он потеряет свою сущность.
Целью настоящей статьи являлось представление объективного мнения о будущем человечества, в связи с использованием информационных технологий.

Фрагмент работы для ознакомления

к.:1) машины станут на столько самостоятельными, что смогут без человеческого над ними контроля реализовывать действия (возможно наносящие вред человеку);2) машины будут развиваться, однако контроль над ними будет сохранен. Несмотря на то, что сценарии различны, объединяет их одно, не существует сомнений о том, что стремительное развитие техники будет остановлено. Т.е. основная проблема состоит в контроле над машинами. Невозможно предвидеть последствия, при первом варианте, т.е. в случае, если машинам будет дана полная свобода в принятии решения. Последствия являются не только непредсказуемыми, но и угрожающими. К тому же в этом случае возникает вероятность того, что гибель человеческого рода окажется во власти машин [4]. Спорным является вопрос того, будет ли когда-нибудь человечество столько безрассудно, что передаст полную власть машинам или же это не случится никогда. Но существует и иной риск, что человечество не добровольно передаст власть машинам, а что они умышленно захватят власть, что человечество позволит оказаться зависимым от машин и станет безвольным и будет вынуждено подчиняться машинным решениям. Как бы с одной стороны не глупо звучало это предположение, с другой – процесс этот все больше набирает силу. Сегодня машины лишают человека еды и даже жизни. Стоит упомянуть в доказательство игровую зависимость, лудоманию, аддикцию, которые являются причиной существования машин. В совокупности со слабостями человека, а отрицать его несовершенство является необъективным, все больше людей становятся зависимыми и их жизнь напрямую связана с их развитием. В то время как общество и проблемы, с которыми оно сталкивается, будут становиться всё более и более сложными и всё более и более интеллектуальными будут становиться машины, люди будут позволять машинам принимать за них больше решений, просто потому, что решения, выработанные машинами, будут приводить к лучшим результатам, чем решения, принятые людьми.В конце концов, может быть достигнута ступень, когда решения, необходимые для поддержания системы в рабочем состоянии, будут такими сложными, что люди будут неспособны к разумной выработке этих решений. На этой ступени фактически распоряжаться будут машины. Люди просто не смогут выключить машины, потому что они будут столь зависимы от них, что их выключение равнялось бы самоубийству. Создав зависимость от машин человечество лишает себя шанса на выживание.С другой стороны, возможно, что человеческий контроль над машинами может быть сохранён. В этом случае средний человек может управлять некоторыми своими личными машинами, такими, как автомобиль или персональный компьютер, но контроль над крупными системами машин будет в руках крохотной элиты — совсем как сейчас, но с двумя отличиями.Благодаря усовершенствованной технике элита будет иметь больший контроль над массами, а поскольку человеческий труд будет больше не нужен, массы будут излишними, бесполезным бременем для системы.Если элита безжалостна, она может просто принять решение истребить людскую массу.Если же она гуманна, то она может использовать пропаганду или иные психологические или биологические способы для сокращения уровня рождаемости, до тех пор, пока людская масса не вымрет, освободив мир для элиты. Или, если элита состоит из мягкосердечных либералов, она может решить сыграть роль доброго пастыря для остального человечества. Они будут присматривать, чтобы физические потребности каждого были удовлетворены, чтобы все дети воспитывались в психологически здоровых условиях, чтобы каждый человек не бездельничал, а имел полезное занятие по душе и чтобы всякий, кто мог стать недовольным, подвергался «лечению» для того, чтобы исцелить его «трудный случай».Конечно, жизнь будет настолько бесцельной, что людей придётся биологически или психологически перестроить: либо устранить их потребность в процессе власти, либо заставить их превратить своё побуждение к власти в некоторое безобидное хобби. Эти спроектированные люди могут быть счастливы в таком обществе, но они совершенно определённо не будут свободны. Они будут приведены к статусу домашних животных.Существует множество теорий о том, когда создадут разумные роботы, предполагалось что результат этого процесса к 2012 году уже будет достигнут, но этого не произошло. Однако нельзя отрицать, что техника значительно продвинулась в своем развитии. Судя по всему, ожидаемый рост вычислительной мощности сделает это возможным к 2030-му году (а может, и раньше). А как только разумный робот будет сделан, до породы роботов — до разумных роботов, способных изготавливать развёрнутые копии самих себя, — останется только небольшой шаг.Человек склонен к безоговорочному одобрению всего нового. Он привык жить с почти шаблонными научными открытиями, но однажды всё же придётся столкнуться с тем фактом, что самые неотразимые технологии XXI века — робототехника, генная инженерия и нанотехнология — ставят угрозу, отличную от той, которую ставили прежние технологии. А именно, роботы, спроектированные организмы и нанороботы разделяют опасный усиливающий фактор: они могут размножаться. Бомба взрывается лишь однажды, а один робот или наноробот может стать множеством роботов и быстро выйти из-под контроля.Генетика, нанотехнология и робототехника — настолько могущественны, что они могут породить совершенно новые виды катастроф и злоупотреблений. Наиболее опасным является то, что впервые за всю историю эти катастрофы и злоупотребления станут по плечу частным лицам и небольшим группам. Для этого не потребуется ни крупное оборудование, ни редкое сырьё; достаточно будет одних лишь знаний.Таким образом, появляется возможность не просто оружий массового уничтожения (ОМУ), а возможность знаний массового уничтожения (ЗМУ).Представляется возможным констатировать, что процесс развития информационных технологий, может привести к непредвиденным последствиям, которые будут связаны с уничтожением человечества. Обладание научными знаниями в особенности в отдельных отраслях, может привести к возникновению риска их использования не по назначению и что ситуация выйдет из под контроля и станет угрожающей. 2. Исследование проблемы влияния информационных технологий на будущее человечестваПредлагаемый подход к решению проблемы вымирания человечества, который базируется на том, что роботы (машины) выйдут из под контроля человека, станут более совершенными, либо основанный на том, что использование информационных технологий приведет к созданию оружия массового поражения каким-либо методом. Метод предполагает создание контроля за изобретениями, которые так или иначе могут способствовать формированию угрозы человечеству. Однако при этом стоит учитывать, что о полном отсутствие развитии компьютерных технологий речи не идет, т.к. торможение процесса может поспособствовать формированию более сложных ситуаций. Метод также предполагает формирование альтернативного воспитания и обучения человека, который мог бы приспособиться к изменениям, происходящим в мире, технике и т.п. С одной стороны, если человек недооценивает угрозу, то он может сам создать оружие массового поражения, либо стать его мишенью. С другой же, неосведомленность может стать и положительным фактором, но это при условии, что человек не связан с наукой, изобретениями и т.п. Соблюдение баланса является сложной задачей, которая должна быть отражена в программах государства в развитии информационных, нанотехногогий, молекулярной биологии, робототехнике и т.п. Но это более широкие аспекты. В более узком варианте должна быть достигнута всеобщая прозрачность, в связи с чем, человечество не оказалось бы зависимым от машин. Несомненно, современному человеку сложно отказаться даже от мобильного телефона (урбанизированному в большей мере), не говоря о компьютерах, бытовой технике и т.п. Больницы не могут отказаться от аппаратов МРТ, УЗИ и иных, т.к. это может привести к гибели человека.

Список литературы

1. Волковский Н. Л. История информационных войн. Часть 2 / Н. Л. Волковский. – М.: Полигон, 2003. – 736 с.
2. Левин В. И. История информационных технологий / В. И. Левин. – М.: Бином, 2007. – 336 с.
3. Бородакий Ю. В. Информационные технологии в военном деле. Основы теории и практического применения / Ю. Г. Лободинский. – М.: Горячая Линия – Телеком, 2008. – 394 с.
4. Моравек Г. Универсальный робот. // Если. Журнал фантастики и футурологии, 1992, №5.
5. Почему мы не нужны будущему / Дж. Билл. – М.: Компьютерра. – 2001. 32 c.
6. Назаретян А.П. Цивилизационные кризисы в контексте универсальной истории / А. П. Назретян. - 2004. 135 с.
7. Билл Джой. Почему мы не нужны будущему (главная мысль). – URL.: http://dayz.net.ua/2012/05/12/bill-dzhoj-pochemu-my-ne-nuzhny-budushhemu-glavnaya-mysl/ (датаобращения: 02.10.2012)
8. A Tale of Two Botanies / Wired. N8.04. – 2000. 3 c.
9. Foresight Institute. - http://www.foresight.org/about/index.html (дата обращения: 02.10.2012)
10. Text of Bethe letter «President Clinton's reply to Bethe letter». – URL.: http://www.fas.org/bethecr.htm (дата обращения: 02.10.2012)
11. Билл Джой. – URL.: http://www.peoples.ru/undertake/soft/bill_joy/ (дата обращения: 02.10.2012)
Очень похожие работы
Пожалуйста, внимательно изучайте содержание и фрагменты работы. Деньги за приобретённые готовые работы по причине несоответствия данной работы вашим требованиям или её уникальности не возвращаются.
* Категория работы носит оценочный характер в соответствии с качественными и количественными параметрами предоставляемого материала. Данный материал ни целиком, ни любая из его частей не является готовым научным трудом, выпускной квалификационной работой, научным докладом или иной работой, предусмотренной государственной системой научной аттестации или необходимой для прохождения промежуточной или итоговой аттестации. Данный материал представляет собой субъективный результат обработки, структурирования и форматирования собранной его автором информации и предназначен, прежде всего, для использования в качестве источника для самостоятельной подготовки работы указанной тематики.
bmt: 0.00473
© Рефератбанк, 2002 - 2024