<div dir="ltr"><div class="gmail_quote"><div dir="ltr" class="gmail_attr">On Wed, Mar 11, 2020 at 8:54 AM SR Ballard via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex">It’s fine and well to think that this kind of thing is an isolated thing, but it’s actually partially driven by AI attempts — YouTube’s algorithm was changed specifically because people were getting sucked into this niche without actually having ever seemed it out. After watching one mild videos, they’d be presented with two which were a bit more intense, then 4 which were medium, and so on until they were hardcore decrying the women’s rights movement. They were literally groomed for extremism by YouTube’s AI.<br></blockquote><div><br></div><div>I understand that this sort of thing was going on long before YouTube's current AI, although that has contributed to the current generation.</div><div><br></div><div>I also understand that a simple (and I mean really simple, the kind that AI is capable of today but for a human would seem trivial) recognition and downweighting of extremist content could solve the problem, but that YouTube (and Alphabet as a whole) is under pressure from many politicians inside and outside the US (who are themselves extremist - as you put it, essentially cult members, having obtained their positions through said cults) not to do any such thing.</div><div><br></div><div>Does this agree with your understanding?<br></div></div></div>