<div dir="auto"><div><br><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Tue, Jan 25, 2022, 11:30 PM Rafal Smigrodzki via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Tue, Jan 25, 2022 at 10:28 AM Dave S via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div><a href="https://usa.streetsblog.org/2022/01/12/why-tesla-can-program-its-cars-to-break-road-safety-laws" target="_blank" rel="noreferrer">https://usa.streetsblog.org/2022/01/12/why-tesla-can-program-its-cars-to-break-road-safety-laws</a><br></div><div><br></div><div><i>Thousands of Teslas are now being equipped with a feature that prompts the car to break common traffic laws — and the revelation is prompting some advocates to question the safety benefits of automated vehicle technology when unsafe human drivers are allowed to program it to do things that endanger other road users.<br><br>In an October 2021 update its deceptively named “Full Self Driving Mode” beta software, the controversial Texas automaker introduced a new feature that allows drivers to pick one of three custom driving “profiles” — “chill,” “average,” and “assertive” — which moderates how aggressively the vehicle applies many of its automated safety features on U.S. roads.<br><br>The rollout went largely unnoticed by street safety advocates until a Jan. 9 article in The Verge, when journalist Emma Roth revealed that putting a Tesla in “assertive” mode will effectively direct the car to tailgate other motorists, perform unsafe passing maneuvers, and roll through certain stops (“average” mode isn’t much safer). All those behaviors are illegal in most U.S. states, and experts say there’s no reason why Tesla shouldn’t be required to program its vehicles to follow the local rules of the road, even when drivers travel between jurisdictions with varying safety standards.<br><br>“Basically, Tesla is programming its cars to break laws,” said Phil Koopman, an expert in autonomous vehicle technology and associate professor at Carnegie Mellon University. “Even if [those laws] vary from state to state and city to city, these cars knows where they are, and the local laws are clearly published. If you want to build an AV that drives in more than one jurisdiction and you want it to follow the rules, there’s no reason you can’t program it up to do that. It sounds like a lot of work, but this is a trillion-dollar industry we’re talking about.”<br></i></div><div></div></div></blockquote><div><br></div><div>### Another hatepiece on Tesla. If a human may choose to ignore a law on his own, then he must be able to choose to ignore a law when using a robot. It's obvious.</div></div></div></blockquote></div></div><div dir="auto"><br></div><div dir="auto">Indeed, one could similarly ask "Why are cars sold today with speed governors whose limits are set beyond any legal speed limit?" These car manufacturers are allowing drivers to violate the law.</div><div dir="auto"><br></div><div dir="auto">The answer is there are many situations where it is acceptable to break a law under the "choice of evils" defense:</div><div dir="auto"><br></div><div dir="auto">“[c]onduct which the actor believes to be necessary to avoid harm or evil…is justifiable, provided that: (a) the harm or evil sought to be avoided by such conduct is greater than that sought to be prevented by the law defining the offense charged” (Model Penal Code § 3.02(1)(a)).</div><div dir="auto"><br></div><div dir="auto">For example, if you're driving someone <span style="font-family:sans-serif">in need of urgent care</span> to the hospital, you can violate speed limits (or enable Tesla's agressive mode) and use the choice of evils defense to be found blameless.</div><div dir="auto"><br></div><div dir="auto">Other examples: <a href="https://courses.lumenlearning.com/suny-criminallaw/chapter/5-4-defenses-based-on-choice/">https://courses.lumenlearning.com/suny-criminallaw/chapter/5-4-defenses-based-on-choice/</a></div><div dir="auto"><br></div><div dir="auto">I wouldn't want to be in a car that prevented the vehicle from performing an illegal U-turn in the event a tornado us spotted on the horizon. Will self-piloting cars be capable of recognizing such dangers, or weighing harms and evils, or does that require Turing-test-passing levels of intelligence?</div><div dir="auto"><br></div><div dir="auto">Jason</div></div>