На самом деле уничтожить человечество уже сейчас могут вполне обычные (в биологическом плане) люди. А когда-нибудь это станет возможным и для террориста-одиночки. Если учесть, как менялись возможности такого одиночки за последние пару сотен лет. От кинжала, позволяющего убить одного - двух человек, до автоматической винтовки, позволяющей быстро совершать массовые убийства. Брейвик убил 77 человек. Омар Матин убил 49 человек. Не исключено, что через сто лет появится нечто, позволяющее взорвать целый город. Но и сегодня утечка в преступные руки смертоносных бацилл может убить миллионы людей, которые будут заражаться друг от друга. Поэтому и нужен особо строгий контроль как за такими бациллами, так и за психическим состоянием людей. Второе намного труднее. А если у искусственного интеллекта не будет встроена программа, не позволяющая убивать людей (один из "законов роботехники" А.Азимова), то его возможности, в сочетании с физической неуязвимостью, смогут наделать много бед, если в мозгу у такого "интеллекта" произойдет какой-то непредвиденный сбой.
Потому что не будет иметь смысла. Не конкуренты мы "искус. интеллекту", ни в место обитания, ни в потреблении ресурсов. Человеки сами вымрут или выродятся.
Добавить комментарий