<div dir="ltr"><div dir="ltr"><br></div><br><div class="gmail_quote gmail_quote_container"><div dir="ltr" class="gmail_attr">On Sun, Mar 15, 2026 at 4:56 PM Adrian Tymes via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">On Sun, Mar 15, 2026 at 4:34 PM Jason Resch via extropy-chat<br>
<<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br>
> On Sun, Mar 15, 2026, 3:59 PM Adrian Tymes via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br>
>><br>
>> On Sun, Mar 15, 2026 at 3:40 PM Jason Resch via extropy-chat<br>
>> <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br>
>> > On Sun, Mar 15, 2026, 3:15 PM Adrian Tymes via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br>
>> >><br>
>> >> On Sun, Mar 15, 2026 at 2:38 PM Jason Resch via extropy-chat<br>
>> >> <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br>
>> >> > On Sun, Mar 15, 2026, 12:49 PM Adrian Tymes via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a>> wrote:<br>
>> >> >> LLMs are complex enough that, even with the controls as you say, it<br>
>> >> >> seems likely that two people - or even the same person - running the<br>
>> >> >> exact same non-trivial query two times would often enough get<br>
>> >> >> non-identical answers.<br>
>> >> ><br>
>> >> > It seems that way, but LLMs are themselves fully deterministic. So long as the exact same input and context are provided, their output is the same. In practice, however, the tokens a LLM deterministically predicts as most likely are then randomly selected by a higher level process to make the writing more dynamic. This is driven by the "heat" parameter. But by using a pseudorandom selection with the same seed, identical output can be ensured.<br>
>> >><br>
>> >> This is true in the sense that the universe may be fully<br>
>> >> deterministic: technically true (possibly) but unreproducible in<br>
>> >> practice (given the complexity and number of inputs of a LLM worth<br>
>> >> advising the President of the United States) due to the very high<br>
>> >> number of variables.<br>
>> ><br>
>> > You needn't invoke the determinism of the universe here. The context window is the input. The output is the input followed by a series of matrix multiplications. Each multiplication is deterministic. The result is defined entirely by the input and the series of multiplications.<br>
>> ><br>
>> > It may be a complex calculation involving a large variable, but nevertheless it is a fully deterministic and repeatable one.<br>
>><br>
>> If you had the exact same inputs, the exact same trainings, the exact<br>
>> same contexts, et cetera.<br>
>><br>
>> Which you won't, in practice.  Not for anything this complex.<br>
><br>
> Why not? There are plenty of LLM models anyone can download and run themselves.<br>
<br>
They are simpler models.  The President would not be using those.<br><br></blockquote><div><br></div><div>It doesn't matter how complex or simple the model is. They all operate on the same principle of matrix multiplication. Larger models simply have more matrices, or more rows or columns, but the algorithm doesn't change or become non-deterministic by using these additional matrices, rows, or columns.</div><div><br></div><div>Of course, if the model used were proprietary and closed, verification would be impossible. However, that contradicts what I stated: if the models were open source anyone could verify the results (provided the random-seed, and the exact input supplied for the prompts).</div><div><br></div><div>Jason </div></div></div>