—тоит ли роботов учить этике и тактичности?

26.01.2011, 14:25
»сточник: автор: јртем “ерехов 3dnews.ru (news@3dnews.ru)


ѕодавл€ющее большинство специалистов, занимающихс€ роботехникой Ц Ђтехнариї. Ёто физики, инженеры, математики, проектировщики, программисты и другие люди, имеющие непосредственное отношение к точным наукам. »менно благодар€ им прогресс в построении и разработке роботов неумолимо движетс€ вперед, попутно стимулиру€ развитие сопутствующих сфер хай-тек индустрии. » это прекрасно, однако в пылу стремительного технологического развити€ люди могут забыть о том, что роботы станов€тс€ все больше похожими на нас. ј если робот начинает походить на человека, значит, пора подумать не только об электрике, сенсорах и приводах, но и об этике поведени€ Ђбратьев наших электронныхї. ¬ конце-концов, в будущем нам захочетс€, чтобы роботы имели представление не только о том, что они делают, но как и когда они это делают.

¬ таком вопросе без Ђгуманитариевї не обойтись. »менно вопросами этики и морали в роботехнике занимаетс€ супружеска€ пара Ц исследователи ћайкл и —юзан јндерсон из ”ниверситета  оннектикута. Ёто относительно новое поле де€тельности (јндерсоны организовали первую международную конференцию по машинной этике в 2005 году), однако в дальнейшем оно окажет значительное вли€ние на социализацию гуманоидных роботов. »скусственные создани€, функции которых пересекаютс€ с человеческой де€тельностью, будут попадать в огромное количество разнообразных сценариев, которые усложн€ютс€ присущей морали двусмысленности.



Ёто легко проиллюстрировать на примере текущего проекта, над которым работают —юзан и ћайкл. ќни запрограммировали уже известного нашим читател€м робота NAO на выполнение простой функции Ц напоминать Ђпациентуї о том, что пора принимать лекарство. NAO приносит человеку таблетки и за€вл€ет, что настало врем€ прин€ть их. ¬роде бы все просто и прозрачно, но добавление в общее уравнение состо€ни€ человека все мен€ет Ц расстроенный болезнью пациент может накричать на робота, отказатьс€ принимать таблетки, промолчать или сделать еще что-либо, выход€щее за рамки узкого машинного алгоритма. ѕоэтому дл€ наибольшей эффективности просто необходимо, чтобы роботы научились уважать отказ пациента, а также знали, когда стоит обратитьс€ за помощью к человеку-сиделке или даже доктору, если здоровью пациента что-либо угрожает.

—юзан јндерсон уверена, что этичное поведение роботов позволит люд€м не только быстрее привыкнуть к тому, что они вход€т в нашу жизнь (чему €вно не способствуют фильмы и книги о восстани€х машин). јндерсон также думает, что такое поведение будет развивать у самих людей чувство такта и этики. «десь есть о чем поспорить Ц как бы не случилось так, что идеальные роботы своей сверхтактичностью не развили у людей ощущение того, что этически правильные решени€ поразительно Ђстерильныї и Ђискусственныї, и имеют мало общего с реальностью. „то вы думаете, уважаемые читатели?

 лючевые слова:
роботы
јндерсон
—юзан
этике
человеку
таблетки
этики
функции
морали
человека
пациента
ћайкл
людей
принимать
делают
пациент
накричать
отказатьс€
рамки
 ниги и рассказы о роботах
робот
робототехника


я Ќ≈ –ќЅќ“!
  • ...
  • ¬ернутьс€ в рубрику:

     ниги и рассказы про роботов


    ≈сли вы хотите видеть на нашем сайте больше статей то кликните ѕоделитьс€ в социальных сет€х! —пасибо!
    —мотрите также:

    ќбратите внимание полезна€ информаци€.