<div dir="ltr"><div dir="ltr"><div class="gmail_default" style="font-family:arial,helvetica,sans-serif"><span style="font-family:Arial,Helvetica,sans-serif">On Sun, Oct 5, 2025 at 11:22 AM BillK via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:</span></div></div><div class="gmail_quote gmail_quote_container"><div dir="ltr" class="gmail_attr"><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><font size="4" face="georgia, serif"><i><span class="gmail_default" style="font-family:arial,helvetica,sans-serif">> </span>ChatGPT-5 is not 100% infallible. If you are unlucky<span class="gmail_default" style=""> </span>enough to encounter a rare medical problem, it might make an error.</i></font></blockquote><div><br></div><div class="gmail_default" style=""><font face="arial, helvetica, sans-serif"></font><font size="4" style="" face="tahoma, sans-serif"><b>Yes GPT-5 might make an error, but that probability is less than the probability of your human doctor making an error. And right now GPT-5 is the stupidest it will ever be. I can't say the same thing about your human doctor.</b></font></div><div class="gmail_default" style=""><font size="4" style="" face="tahoma, sans-serif"><b><br></b></font></div><div class="gmail_default" style=""><font size="4" style="" face="tahoma, sans-serif"><b>John K Clark</b></font></div></div></div>