<br><div><span class="gmail_quote">On 11/18/06, <b class="gmail_sendername">ben</b> <<a href="mailto:benboc@lineone.net">benboc@lineone.net</a>> wrote:</span><blockquote class="gmail_quote" style="border-left: 1px solid rgb(204, 204, 204); margin: 0pt 0pt 0pt 0.8ex; padding-left: 1ex;">
"Robert Bradbury" <<a href="mailto:robert.bradbury@gmail.com">robert.bradbury@gmail.com</a>> said:<br><br>> If we cannot make good judgements now, how can we be expected to make<br>> them in the future?
<br><br>I though this was a rather odd thing for a transhumanist to say.<br>Don't you expect your ability to make good judgements to improve in the<br>future?</blockquote><div><br>I'm not sure.  One could cite the war in Iraq as an example.  Why  was it not instead a war in the Sudan?  [the question is rhetorical... lets not fall into a political rehashing pit.]
<br><br>Because almost all people perceive of themselves as quite attached to their position and because the nano-santas will generally eliminate classical "positions" I expect that many people will become lost and that a lot of bad judgements will result.  It is somewhat worse if AGIs develop.
<br><br>As I've stated before I don't really want to live in a world where I know that an AGI is running around climbing the curve at the limits imposed by the laws of physics.  It forces me into a position of giving up my "position" so as to effectively become equivalent to the the AGI (where the past me is probably becoming a microfraction of myself at an extremely rapid rate) or choose to position myself someplace in the middle of the range from luddite human to AGI-at-the-limits (a *very* large range).   You generally do *not* have that choice today and so you don't have to deal with that problem.  If the choice develops rapidly as might well be the case one will hardly know what choices wil be best.  A Las Vegas "all you can eat" buffet is not necessarily a good thing.
<br><br>Robert<br><br></div></div>