<div dir="ltr"><p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;font-size:11pt;font-family:Calibri,sans-serif"><span style="font-size:12pt;font-family:"Times New Roman",serif">Hi Stuart,</span></p>

<p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;font-size:11pt;font-family:Calibri,sans-serif"><span style="font-family:"Times New Roman",serif;font-size:12pt"><br></span></p><p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;font-size:11pt;font-family:Calibri,sans-serif"><span style="font-family:"Times New Roman",serif;font-size:12pt">Once you figure out what “qualia
blindness” means, you will look back on these conversations and, like all
people that do now comprehend qualia blindness (including some on this list), you will wonder how you could have missed what should be obvious, for so long.</span><span style="font-family:"Times New Roman",serif;font-size:12pt">  </span><span style="font-family:"Times New Roman",serif;font-size:12pt">At least you are still persisting.</span><span style="font-family:"Times New Roman",serif;font-size:12pt">  </span><span style="font-family:"Times New Roman",serif;font-size:12pt">Many people give up before they get this
far.</span><span style="font-family:"Times New Roman",serif;font-size:12pt">  Many p</span><span style="font-family:"Times New Roman",serif;font-size:12pt">eople that finally get it experience
this.</span><span style="font-family:"Times New Roman",serif;font-size:12pt">  </span><span style="font-family:"Times New Roman",serif;font-size:12pt">In order to not be qualia blind,
you need to use more than just one word “red” when talking about the perception
of color and mind reading.</span><span style="font-family:"Times New Roman",serif;font-size:12pt">  </span><span style="font-family:"Times New Roman",serif;font-size:12pt">If you only
have one word for “red” you can’t model when someone is representing red
information, with something physically different like your greenness.</span></p>

<p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;font-size:11pt;font-family:Calibri,sans-serif"><br></p>

<p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;font-size:11pt;font-family:Calibri,sans-serif"><span style="font-size:12pt;font-family:"Times New Roman",serif">Obviously, Both Galant and Nemrodov
et al, are doing mind reading.  What you
are completely missing is how both of these guys and everyone doing this kind
of mind reading is doing it in a qualia blind way.  The spatiotemporal EEG information</span> they
are getting is just abstract information, completely devoid of any color
quality information.  In order to display mind read colors on the screen, from the abstract data, they need some additional information
to tell them when to display what color.  If they are qualitatively interpreting the
data at all (gallant does this - displaying colored images, Nemrodov isn’t – he displays no color in
their resulting face recognition images) they are doing it in a way that blinds
them to any physical qualitative differences they may be detecting. 
Jack Gallant uses the color map in the movie he shows to know how to qualitatively
interpret his spatiotemporal EEG information, which is effectively
interpreting it according to the properties of the initial cause of perception
(the physical properties of the strawberry out there), not the physical
qualities of what they are observing (knowledge of the strawberry, in the
brain).  Their deep learning neural
network algorithms have unique models for each person.  These models <span style="font-size:11pt">“correct” for any physical differences they detect in individual brains, so they
only see “red”, when in realty they may be detecting greenness, and correcting
for this difference making their mind reading qualia blind.</span></p>

<p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;font-size:11pt;font-family:Calibri,sans-serif"><br></p>

<p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;font-size:11pt;font-family:Calibri,sans-serif"><span style="font-size:12pt;font-family:"Times New Roman",serif">You obviously haven’t yet red the “<a href="https://docs.google.com/document/d/1uWUm3LzWVlY0ao5D9BFg4EQXGSopVDGPi-lVtCoJzzM/edit?usp=sharing" style="color:blue">Objectively,
We are Blind to Physical Qualities</a>” paper which describes exactly this in
more detail.</span></p>

<p class="MsoNormal" style="margin:0in 0in 0.0001pt;line-height:normal;font-size:11pt;font-family:Calibri,sans-serif"><br></p></div><br><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Sat, Jun 29, 2019 at 7:57 PM Stuart LaForge <<a href="mailto:avant@sollegro.com">avant@sollegro.com</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><br>
Quoting Brent Allsop:<br>
<br>
<br>
> There are ?week?, ?stronger? and ?strongest? forms predicting how we will<br>
> be able to eff the ineffable nature of the physical quality of the redness<br>
> someone can directly experience to other people in this ?Objectively, We<br>
> are Blind to Physical Qualities<br>
> <<a href="https://docs.google.com/document/d/1uWUm3LzWVlY0ao5D9BFg4EQXGSopVDGPi-lVtCoJzzM/edit?usp=sharing" rel="noreferrer" target="_blank">https://docs.google.com/document/d/1uWUm3LzWVlY0ao5D9BFg4EQXGSopVDGPi-lVtCoJzzM/edit?usp=sharing</a>>?<br>
> paper.<br>
<br>
Your paper references Jack Gallant's work but what you call "effing"  <br>
technology is more popularly called "mind-reading technology" you  <br>
should see what they have accomplished with fMRI and deep-learning  <br>
algorthms these days. One of the pioneers in the field is now able to  <br>
use your EEG(!) fed into a deep learning neural network to reconstruct  <br>
the faces you are seeing during the experiment.<br>
<br>
<a href="http://www.eneuro.org/content/5/1/ENEURO.0358-17.2018/tab-figures-data" rel="noreferrer" target="_blank">http://www.eneuro.org/content/5/1/ENEURO.0358-17.2018/tab-figures-data</a><br>
<br>
> You are basically making the falsifiable prediction that consciousness or<br>
> qualia arise from mathematics or functionality.  This kind of functionalism<br>
> is currently leading in supporting sub camps to representational qualia<br>
> theory, there being multiple functionalists? sub camps, with more<br>
> supporters than the materialist sub camps.<br>
<br>
So the question now becomes can an algorithm reconstruct your qualia  <br>
from your brain-wave data without itself experiencing them?<br>
<br>
> So, let?s take a simplistic falsifiable mathematical theory as an example,<br>
> the way we use glutamate as a simplified falsifiable materialist example.<br>
> Say if you predict that it is the square root of 9 that has a redness<br>
> quality and you predict that it is the square root of 16 that has a<br>
> greenness quality.   In other words, this could be verified if no<br>
> experimentalists could produce a redness, without doing that particular<br>
> necessary and sufficient mathematical function that was the square root of<br>
> 9.<br>
> But, if the prediction that it is glutamate that has the redness physical<br>
> quality that can?t be falsified, and nobody is ever able to reproduce a<br>
> redness experience (no matter what kind of mathematics you do) without<br>
> physical glutamate, this would falsify functionalist and mathematical<br>
> theories of qualia or consciousness.<br>
<br>
If hooking EEG electrodes to your head allows a machine to show me red  <br>
whenever you are looking at red, then which does that falsify?<br>
<br>
Stuart LaForge<br>
<br>
<br>
<br>
_______________________________________________<br>
extropy-chat mailing list<br>
<a href="mailto:extropy-chat@lists.extropy.org" target="_blank">extropy-chat@lists.extropy.org</a><br>
<a href="http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat" rel="noreferrer" target="_blank">http://lists.extropy.org/mailman/listinfo.cgi/extropy-chat</a><br>
</blockquote></div>