<div dir="ltr"><div dir="ltr">On Fri, Oct 6, 2023 at 1:37 PM BillK via extropy-chat <<a href="mailto:extropy-chat@lists.extropy.org">extropy-chat@lists.extropy.org</a>> wrote:<br></div><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left:1px solid rgb(204,204,204);padding-left:1ex"><div dir="ltr"><div><span style="color:rgb(0,0,0);font-family:"times new roman",serif">But there are risks involved.  The software involved may be sending all the data to Google or MS, or three letter agencies.</span><br></div><div><div style="font-family:"times new roman",serif;font-size:small;color:rgb(0,0,0)">If someone obtains a copy, your image could be made to say anything.</div></div></div></blockquote><div><br></div><div>This is not a dramatically increased risk over not using it.  If there is a picture or video of you online, and any sample of your voice, a deepfake video of you can in theory be created.  It gets easier the more such material about you is online. </div></div></div>