<div dir="auto">It's not that hard to have reliable identity isn't it?  Blockchain achieves that quite easily, right?</div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, May 17, 2023, 3:28 PM Dylan Distasio via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div dir="ltr">I don't disagree with his assertion that these AIs may create problems (although I don't agree with what IMO is a hyperbolic/hysterical level of concern with it), and that we should do our best to minimize their impact.   I'm also not personally worried about one of them having some kind of catastrophic influence on myself personally.<div><br></div><div>What I am generally disappointed in is anyone calling for heavy handed forced global regulation with life sentences involved for anyone who doesn't agree to said regulations.</div><div><br></div><div>I also don't think this djinn can be put back in the bottle, so I would rather see people working together to counter perceived threats creatively without forcing others to tow the line on their positions via the barrel of a gun.</div></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, May 17, 2023 at 4:26 AM efc--- via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><br>
On Tue, 16 May 2023, Dylan Distasio via extropy-chat wrote:<br>
<br>
> Based on that article, it sounds like Dennett has been hanging out with Eliezer Yudkowsky.   I'm quite disappointed with both of<br>
> their recent hot takes.<br>
<br>
Why are you disappointed with Dennetts take? I don't see anything that<br>
in theory would stop master persuaders from being a possibility. As for<br>
Eliezer, haven't read anything recently about AI from him, so cannot<br>
say.<br>
<br>
But regardless of what one thinks of AI:s I think there is immense value<br>
in exploring all possible developments, both negative and positive.<br>
<br>
Best regards, <br>
Daniel<br>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank" rel="noreferrer">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>