
_igor » Вт дек 11, 2018 6:26 pm

simple » Вт дек 11, 2018 6:33 pm
_igor писал(а):Не знакомы с этим типом игр? Там большая карта, на ней можно разместить до 8 игроков (в том числе компьютерных). На этапе настройки карты игроков можно объединять в команды. Игровой процесс выглядит как постройка своей военной базы, добыча ресурсов и т.д., а в итоге - построение армии из разной техники (пехота, танки, самолеты и т.д.) и уничтожение баз всех соперников. Он делает себя и еще двух игроков в одной команде, а еще троих - в другой. И в итоге компьютерные игроки из его команды самостоятельно воюют с компьютерными же игроками из другой команды.

_igor » Вт дек 11, 2018 6:39 pm

simple » Вт дек 11, 2018 6:40 pm
_igor писал(а):Сами, он лишь настраивает кто с кем в альянсе. Результат знает, но лишь потому, что тоже играет. В теории можно выключить монитор.

ЗАЗ » Вт дек 11, 2018 6:56 pm
_igor писал(а):Ну как незачем - к примеру, вы создали всемогущего робота, который любой ценой должен победить - уничтожить соперника и все, что мешает ему добиться этой цели. А потом заключаете перемирие с этим соперником. Как остановить робота? Не решит ли он, что вы, как останавливающий его, тоже должны быть уничтожены?

_igor » Вт дек 11, 2018 7:01 pm

ЗАЗ » Вт дек 11, 2018 7:12 pm
_igor писал(а):А инициация самоуничтожения - это не попытка помешать выполнению основной задачи? Не нужно ли уничтожить того, кто пытается поставить меня на паузу?

simple » Вт дек 11, 2018 7:25 pm
ZAZ писал(а):_igor писал(а):А инициация самоуничтожения - это не попытка помешать выполнению основной задачи? Не нужно ли уничтожить того, кто пытается поставить меня на паузу?
Робот в этом случае не имеет возможности мне помешать. Если я им управляю дистанционно, контролирую его системы жизнеобеспечения, навигацию и оружие, то очевидно что первое о чём я подумаю, это о полном контроле над механизмом. Причем три или четыре дублирующих аварийных варианта должно быть, плюс защита от стороннего взлома. Повторю, помешать он мне может, если руководствуясь своими эмоциями самостоятельно перепишет программу. Это невозможно.
Если связь прервется, то автоматически активируется система отключения питания или паузы, если последует попытка захвата объекта противником, инициируется система самоуничтожения. но все эти варианты предусмотрит производитель. Сама система не сможет придумать третий вариант, отличный от заложенных алгоритмов.

ЗАЗ » Вт дек 11, 2018 7:34 pm
simple писал(а):Вы не можете предусмотреть возможность случайного сбоя программы, в результате которого программа обойдет тот участок программы, который играет роль защитного механизма. Ну, например, из-за сбоя памяти, в который записана программа, вместо "не равно", потеряется частичка "не" и программа начнет делать совсем не то, что предполагал ее создатель.

simple » Вт дек 11, 2018 7:45 pm
ZAZ писал(а):simple писал(а):Вы не можете предусмотреть возможность случайного сбоя программы, в результате которого программа обойдет тот участок программы, который играет роль защитного механизма. Ну, например, из-за сбоя памяти, в который записана программа, вместо "не равно", потеряется частичка "не" и программа начнет делать совсем не то, что предполагал ее создатель.
Ну я ж написал, должно быть несколько контуров защиты и блокировок. Если программа вылетит из за дефекта памяти или ещё какого железа, то это не проявление искусственного интеллекта-это просто поломка, которая в итоге разрушит или остановит весь механизм.

_igor » Вт дек 11, 2018 7:47 pm
ZAZ писал(а):_igor писал(а):А инициация самоуничтожения - это не попытка помешать выполнению основной задачи? Не нужно ли уничтожить того, кто пытается поставить меня на паузу?
Робот в этом случае не имеет возможности мне помешать. Если я им управляю дистанционно, контролирую его системы жизнеобеспечения, навигацию и оружие, то очевидно что первое о чём я подумаю, это о полном контроле над механизмом. Причем три или четыре дублирующих аварийных варианта должно быть, плюс защита от стороннего взлома. Повторю, помешать он мне может, если руководствуясь своими эмоциями самостоятельно перепишет программу. Это невозможно.
Если связь прервется, то автоматически активируется система отключения питания или паузы, если последует попытка захвата объекта противником, инициируется система самоуничтожения. но все эти варианты предусмотрит производитель. Сама система не сможет придумать третий вариант, отличный от заложенных алгоритмов.

ЗАЗ » Вт дек 11, 2018 7:58 pm
_igor писал(а):С точки зрения прямолинейного алгоритма и одного робота Вы правы. Но всегда есть варианты и именно эмоции робота тут не при чем. К примеру, сейчас активно используют нейронные сети (это еще не ИИ, но близко) - если коротко, то это анализ большого массива действий и результата. Причем действие может не иметь формальной связи с результатом. Так вот, если из 100000 роботов у 1000 выйдет из строя (или будет отключена) система самоуничтожения (или связь с центром, или еще что-то) и в этой 1000 достижимость основной задачи (уничтожение противника) будет выше, то остальные 99000 роботов отключат свои системы тем или иным способом. И таких вариантов множество, с чего и началась тема. Все их программист предусмотреть обязан, но сможет ли? Не факт. К примеру, авиакатастрофы расследуют так тщательно, потому что иногда находят в результате такие стечения обстоятельств, при которых все алгоритмы оказываются неэффективны и самолет падает. Типа при мойке самолета вода попала в какой-то датчик и на определенной высоте он начал врать, а при этом другой датчик натерли маслом и он тоже начал врать и в результате автопилот решил выключить двигатель (условно)

simple » Вт дек 11, 2018 8:02 pm
ZAZ писал(а): При мне на "Коммунаре " в 1990 году простейший робот сварной поехал не по той траектории и покалечил проходящего мимо человека. Это аварийная ситуация, но не самостоятельные и обдуманные действия робота. В этом разница.

ЗАЗ » Вт дек 11, 2018 8:05 pm
simple писал(а):ZAZ писал(а): При мне на "Коммунаре " в 1990 году простейший робот сварной поехал не по той траектории и покалечил проходящего мимо человека. Это аварийная ситуация, но не самостоятельные и обдуманные действия робота. В этом разница.
А какая разница для пострадавшего человека, это была аварийная ситуация или обдуманные действия робота? Ведь и аварийная ситуация может быть не единичным случаем, если роботов будет много.

simple » Вт дек 11, 2018 8:09 pm
ZAZ писал(а):simple писал(а):ZAZ писал(а): При мне на "Коммунаре " в 1990 году простейший робот сварной поехал не по той траектории и покалечил проходящего мимо человека. Это аварийная ситуация, но не самостоятельные и обдуманные действия робота. В этом разница.
А какая разница для пострадавшего человека, это была аварийная ситуация или обдуманные действия робота? Ведь и аварийная ситуация может быть не единичным случаем, если роботов будет много.
Для пострадавшего разницы нет. Разница есть для нас с вами в рамках этого обсуждения. Обдуманные действия искусственного интеллекта или просто поломка.

ЗАЗ » Вт дек 11, 2018 8:22 pm
simple писал(а):Я думаю, что вредоносные обдуманные действия искусственного интеллекта могут возникнуть именно в результате какого-то сбоя или поломки.

simple » Вт дек 11, 2018 8:28 pm
ZAZ писал(а):simple писал(а):Я думаю, что вредоносные обдуманные действия искусственного интеллекта могут возникнуть именно в результате какого-то сбоя или поломки.
Я так не думаю. Именно наука математика не даёт мне права думать иначе. И физика.

ЗАЗ » Вт дек 11, 2018 8:31 pm
simple писал(а):ZAZ писал(а):simple писал(а):Я думаю, что вредоносные обдуманные действия искусственного интеллекта могут возникнуть именно в результате какого-то сбоя или поломки.
Я так не думаю. Именно наука математика не даёт мне права думать иначе. И физика.
Вы считаете, что не может быть, чтобы в результате сбоя программы робот начал делать не то, что должен был делать согласно первоначально заложенной программы?

simple » Вт дек 11, 2018 8:41 pm
ZAZ писал(а):simple писал(а):ZAZ писал(а):Я так не думаю. Именно наука математика не даёт мне права думать иначе. И физика.
Вы считаете, что не может быть, чтобы в результате сбоя программы робот начал делать не то, что должен был делать согласно первоначально заложенной программы?
Может. Но он это будет неосмысленно, а хаотично. Свой привычный режим работы он сменит в результате ЧП, а не в результате обдуманных собственным интеллектом действий.

ЗАЗ » Вт дек 11, 2018 8:47 pm
simple писал(а):Конечно, он сменит свой привычный ритм в результате ЧП, но в результате, программа может измениться так, что он будет производить деструктивные действия, считая, что он все делает правильно. Как сумасшедший маньяк, который все ломает, считая, что он все делает правильно.

