<div dir="ltr"><div class="gmail_default" style="font-family:arial,helvetica,sans-serif;font-size:small;color:rgb(0,0,0)"><span style="color:rgb(34,34,34);font-family:arial,sans-serif;font-size:19.2px">My worry is that everyone has different ethical systems.</span><br style="color:rgb(34,34,34);font-family:arial,sans-serif;font-size:19.2px"><span style="color:rgb(34,34,34);font-family:arial,sans-serif;font-size:19.2px">BillK</span><br></div><div class="gmail_default" style="font-family:arial,helvetica,sans-serif;font-size:small;color:rgb(0,0,0)"><br></div><div class="gmail_default" style="font-family:arial,helvetica,sans-serif;font-size:small;color:rgb(0,0,0)">Surely any system will prefer saving lives to preserving objects.  Whether it should put equal weight to its riders and the other car's riders, or prefer its riders is a problem to be worked out.  </div><div class="gmail_default" style="font-family:arial,helvetica,sans-serif;font-size:small;color:rgb(0,0,0)"><br></div><div class="gmail_default" style="font-family:arial,helvetica,sans-serif;font-size:small;color:rgb(0,0,0)">Another issue:  there are many different ways to get into an accident, and many other types of vehicles to get into one with.  If the other is a smart car, then it's one thing, if it's a rig (lorry) then it's another thing entirely.  So many different situations to program for.</div><div class="gmail_default" style="font-family:arial,helvetica,sans-serif;font-size:small;color:rgb(0,0,0)"><br></div><div class="gmail_default" style="font-family:arial,helvetica,sans-serif;font-size:small;color:rgb(0,0,0)">bill w</div></div><div class="gmail_extra"><br><div class="gmail_quote">On Fri, Jul 14, 2017 at 2:37 PM, BillK <span dir="ltr"><<a href="mailto:pharos@gmail.com" target="_blank">pharos@gmail.com</a>></span> wrote:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">By Jonathan Wilson     Published Wednesday, July 5, 2017<br>
<<a href="https://eandt.theiet.org/content/articles/2017/07/self-driving-cars-to-make-moral-and-ethical-decisions-like-humans/" rel="noreferrer" target="_blank">https://eandt.theiet.org/<wbr>content/articles/2017/07/self-<wbr>driving-cars-to-make-moral-<wbr>and-ethical-decisions-like-<wbr>humans/</a>><br>
<br>
Quote:<br>
A new study has demonstrated that human ethical decisions can be<br>
implemented into machines using morality modelling. This has strong<br>
implications for how autonomous vehicles could effectively manage the<br>
moral dilemmas they will face on the road.<br>
<br>
The results were conceptualised by statistical models leading to<br>
rules, with an associated degree of explanatory power to explain the<br>
observed behavior. The research showed that moral decisions in the<br>
scope of unavoidable traffic collisions can be explained well, and<br>
modelled, by a single value-of-life for every human, animal or<br>
inanimate object.<br>
<br>
Leon Sütfeld, the first author of the study, says that until now it<br>
has been assumed that moral decisions are strongly context dependent<br>
and therefore cannot be modelled or described algorithmically.<br>
<br>
“We found quite the opposite”, he said. “Human behavior in dilemma<br>
situations can be modelled by a rather simple value-of-life-based<br>
model that is attributed by the participant to every human, animal, or<br>
inanimate object.”<br>
<br>
This implies that human moral behavior can be well described by<br>
algorithms that could be used by machines as well.<br>
<br>
Prof. Gordon Pipa, a senior author of the study, says that since it<br>
now seems to be possible that machines can be programmed to make<br>
human-like moral decisions, it is crucial that society engages in an<br>
urgent and serious debate.<br>
<br>
“We need to ask whether autonomous systems should adopt moral<br>
judgements,” he said. “If yes, should they imitate moral behavior by<br>
imitating human decisions, should they behave along ethical theories<br>
and if so, which ones and critically, if things go wrong who or what<br>
is at fault?”<br>
<br>
----------------------<br>
<br>
<br>
My worry is that everyone has different ethical systems.<br>
<br>
I'm not sure that I would buy a 'Jesus-freak' car that says "I'm very<br>
sorry Bill, but my ethics module says that in this situation saving<br>
your life is not the most efficient solution".<br>
<br>
<br>
BillK<br>
<br>
______________________________<wbr>_________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/<wbr>mailman/listinfo.cgi/extropy-<wbr>chat</a><br>
</blockquote></div><br></div>