<div dir="ltr">On Tue, Oct 29, 2013 at 5:29 AM, Eugen Leitl <span dir="ltr"><<a href="mailto:eugen@leitl.org" target="_blank">eugen@leitl.org</a>></span> wrote:<br><div class="gmail_extra"><div class="gmail_quote"><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">
<div class="im">On Mon, Oct 28, 2013 at 01:51:22PM -0600, Kelly Anderson wrote:<br>
<br>
> I think his data is well researched. Whether all of the curves extend into<br>
> the future, and just how far they will extend is guess work.<br>
<br>
</div>No, no, no. If you're formulating a theory, you have to define<br>
its scope of applicability, and margins beyond which the<br>
theory is falsified.<br></blockquote><div><br></div><div>This is not a theory like the theory of gravity or the theory of evolution. It is a rule of thumb or a hypothesis by which you can approximate what things will PROBABLY be like in the future. The future cannot be known with certainty. For example, we all know of existential risks that would throw Moore's Law out the window. </div>
<div><br></div><div>It's more like using climate projections to guess the weather on a specific date than using orbital dynamics to determine the location of Jupiter on July 4, 3200. Both are forecasts, but I know which one I'd rather depend upon.</div>
<div><br></div><div>If I were planning a wedding months out, I would rather have the Farmer's Almanac (based upon history on a specific date) than nothing. The LoAR is more like the Farmer's Almanac than it is like planetary tables.</div>
<div> <br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">If it's not a theory, then why are we wasting time on<br>

such assclownage?<br></blockquote><div><br></div><div>Because even as a rule of thumb it is better than going completely in the dark. If you were in a cave, would you not want a small candle as opposed to nothing at all? I don't know if $1000 worth of computation will approximate the power of the human brain in 2025, 2029, 2035 or 2040 but the center of my guess is 2029 based on Moore's Law. That's slightly better than saying, "I have no idea", isn't it?</div>
<div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">
<div class="im">> > > believe everything is exponential. That being said, lots of things are,<br>
> > > like the savings in your bank account.<br>
> ><br>
> > Exponential growth of compound interest is a textbook case<br>
> > where your numerical model of physical layer processes and reality<br>
> > increasingly diverge, requiring periodic, painful readjustments.<br>
> ><br>
><br>
> I have never heard of a case where a bank simply refused to pay interest<br>
<br>
</div>You have never heard of banks going broke, assets seized, currency<br>
hyperinflated? Really?<br></blockquote><div><br></div><div>Of course I have. Those things can happen because of bad management, war, bad government control over money and the like. </div><div><br></div><div>The point is that banks don't ever go out of business JUST because they can't pay interest.</div>
<div><br></div><div><a href="https://en.wikipedia.org/wiki/List_of_oldest_banks_in_continuous_operation">https://en.wikipedia.org/wiki/List_of_oldest_banks_in_continuous_operation</a><br></div><div>Monte dei Paschi di Siena was founded in 1472. If you put a dollar in there, you would now have a LOT of money, and I doubt the bank would go out of business if they had that money just sit there for hundreds of years.<br>
</div><div><br></div><div>Interestingly, this bank almost went out of business in 2008... Just shows that the level of stupidity was nearly unprecedented.</div><div> <br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">
Are you honestly believing that money likes to work, and it<br>
keeps growing in the bank vaults, like early miners thought<br>
metal grew in the mountain, so that they left there some so<br>
that it could breed?<br></blockquote><div><br></div><div>Yes, I believe money properly invested (say in the stock market) does like to work. It does create value. I know this because I've personally witnessed 8 million dollars grow into 32 million dollars over a period of ten years. Without investment, that could never have happened.</div>
<div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">
<div class="im">> because there was just too much money in the account. So what are you<br>
> referring to here?<br>
><br>
><br>
> > > > People<br>
> > > > forget that hard drives stopped doubling, at least for a short while.<br>
> > > ><br>
> > ><br>
> > > Because of a flood in Thailand. Nobody has said there wouldn't be bumps<br>
> > in<br>
> ><br>
> > Thailand was not the reason.<br>
> ><br>
> > We're stuck at 4 TB because they ran into limits of a particular<br>
> > technology.<br>
> ><br>
><br>
> I'm baffled by your use of the word "stuck" here. We just got to 4 Tbytes<br>
<br>
</div>You're getting far too frequently baffled for my liking. I'm showing<br>
you instances where reality deviates from the nice linear semi-log.<br>
There have been multiple smooth technology handovers in the platter<br>
areal density which however shew a different scaling<br>
<a href="http://www.hindawi.com/journals/at/2013/521086/fig1/" target="_blank">http://www.hindawi.com/journals/at/2013/521086/fig1/</a></blockquote><div><br></div><div>I think this goes more to proving my point than yours.</div>
<div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">If you think you're seeing a linear semilog plot in there, then<br>

throw away your ruler. Or buy new glasses. If you're now agreeing<br>
that the growth is saturating, then why are you wasting my time?<br></blockquote><div><br></div><div>The biggest downcurve in the plot is the part that projects into the future. Let's come back in 5 years and see what reality actually happens.</div>
<div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">
<div class="im">> not that long ago. We always get "stuck" by this definition. I have<br>
> attached my spreadsheet of hard drive prices that I have been maintaining<br>
<br>
</div>The metric you're looking for is areal density.<br></blockquote><div><br></div><div>The metric I care about is inflation adjusted dollars/byte. I could care less about areal density, except that it is one (and only one) mechanism by which dollars/byte goes down.</div>
<div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">
<div class="im">> for a few years, but initially got elsewhere. I welcome comments.<br>><br>
> > In case of platters full of spinning rust the snag is temporary,<br>
> > as there are two successor technologies about to enter the<br>
> > marketplace (HAMR and BPM, not new but close to becoming<br>
> > mature enough for practical applications) so there's probably<br>
> > another order of magnitude still to go before end of the line.<br>
> > That makes it 40 TB.<br>
> ><br>
><br>
> That hardly seems like "stuck" to me. Knowing how we're going to get the<br>
> next order of magnitude is good enough for me.<br>
<br>
</div>No, deviations from linear semi-log plot are definitely not good enough<br>
for Ray, and I have to agree with him. If you like leaning out of the<br>
windows very far, prepare to deal with gravity.<br></blockquote><div><br></div><div>I'm sure deviations from the semi-log plot are of concern to many people. I'm more interested in the idea that things continue to improve at an astonishing (perhaps near exponential) rate. I see no indication that that kind of progress is going to end, even if it slows slightly. You're just playing with the exponent a bit. That doesn't change the end result much.</div>
<div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">
<div class="im">> Aside from that, there are things out there that promise to give the next<br>
<br>
</div>I'm not interested in promises. I'm interested in past data that<br>
show where real world disagreed with prior predictions.<br>
<div class="im"><br>
> order of magnitude after that... such as:<br>
> <a href="https://en.wikipedia.org/wiki/Racetrack_memory" target="_blank">https://en.wikipedia.org/wiki/Racetrack_memory</a><br>
> Which is clearly not ready for prime time, but is a good idea of the sorts<br>
> of things that might happen when brilliant people are tasked with an<br>
<br>
</div>Brilliant people can't make features smaller than atoms. Brilliant<br>
people have no magic wands to short-cut technology maturation times<br>
so that they spring full-formed from nothing, just as Athena sprang<br>
from Zeus' forehead. Brilliant people can't make a refinery grow<br>
out overnight, for free.<br></blockquote><div><br></div><div>I agree that brilliant people will find it EXTREMELY difficult to build features smaller than atoms, perhaps even impossible. But we aren't close enough to the problem to say that we KNOW it is impossible yet. If it is possible, it might involve something like a highly controlled neutron star. And IF this is the case, that would explain the Fermi paradox. This is pure conjecture. There are a LOT of things we can do before we need subatomic manipulation. We aren't even close.</div>
<div><br></div><div>Things like refineries do take a long time to build using today's techniques. I can see a day coming though where building such things will not take as long as they do today. Humans can only move so fast, but robots can move faster.</div>
<div><br></div><div>I refer you to:</div><div><a href="http://www.youtube.com/watch?v=-KxjVlaLBmk">http://www.youtube.com/watch?v=-KxjVlaLBmk</a><br></div><div><br></div><div>If you could imagine robots programmed by sophisticated scheduling systems to build a refinery, I propose that you could, in principle, build a refinery rather quickly. The slowest part potentially is getting government approval. </div>
<div><br></div><div>Here is my biggest point. If you can imagine being able to do something given a reasonable amount of time and money with current technology, then I can't imagine that given sufficient incentive that such a thing would not be accomplished. There is sufficient incentive to improve computational efficiencies, therefore, I cannot see such things not being accomplished.</div>
<div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">
<div class="im"><br>
> objective.<br>
><br>
> Coincidentally, NOR flash has recently also entered<br>
> > scaling limits.<br>
> ><br>
> > The time for surface scaling is running out. The only<br>
> > alternative is 3d volume integration. We do not have anything<br>
> > in the pipeline to arrive in time, so there will be a gap.<br>
> > The only technology to interpolate would be Langmuir-Blodgett<br>
> > serial layer deposition, with according 2d liquid mosaic<br>
> > self-assembly/alignment. I'm not aware of this technology<br>
> > to be ready for deployment. Next after that is 3d crystal<br>
> > self-assembly from solution. This is even further away.<br>
> ><br>
><br>
> That's ok, we have time to get this stuff right before falling off the<br>
> curve.<br>
<br>
</div>We've already fallen from the semiconductor litho curve.<br></blockquote><div><br></div><div>Let's talk about CPS/Second/inflation adjusted Dollar. I am intensely NOT interested in the details of how it happens. That is someone/everyone else's job at the moment.</div>
<div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">
See the NOR flash scaling at the URL I posted earlier.<br>
We've already fallen of the PV deployment curve (and we<br>
were never on the according infrastructure curve in the<br>
first place).<br>
<br>
You can't jump from zero TW to 20 TW in 20 years.<br>
Not unless you have MNT, and collectively we made sure we<br>
failed to develop that.<br></blockquote><div><br></div><div>When you say MNT, do you mean molecular nanotechnology?</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">

<div class="im">><br>
> > > the road, just that there was an overall trend.<br>
> > ><br>
> > ><br>
> > > > People are unaware of finer points like<br>
> > > > <a href="http://postbiota.org/pipermail/tt/2013-October/014179.html" target="_blank">http://postbiota.org/pipermail/tt/2013-October/014179.html</a><br>
> > ><br>
> > ><br>
> > > Ok, I read that, and what it said in a nut shell is "fuck this is hard".<br>
> ><br>
> > Yes, this is the nature of limits. Instead of constant doubling<br>
> > times the last few show longer and longer steps. As I told you,<br>
> > we're no longer at 18 months but at 3 years doubling time this<br>
> > moment. The next doubling times will be longer. This means<br>
> > that linear semilog plot is no longer linear. No more Moore for you.<br>
> ><br>
><br>
> And yet, it is still doubling rapidly. The end result is the same, just at<br>
<br>
</div>Which part of "no more constant doubling times for you" you don't understand?<br></blockquote><div><br></div><div>As long as it continues to double, I don't care if it takes 18 months or 24 or 36. You can't point to a date in the future and say "improvement stops here" can you? As long as it is doubling somewhat close to current levels, the things I care about will continue to happen in the time scales I care about. </div>
<div><br></div><div>I do care if the whole damn boat is going down. But that is a separate conversation. So long as there are SOME rich people/corporations/AGIs paying for the development of this stuff, I think it will continue to be developed.</div>
<div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">
<div class="im">> a slightly different time scale. And there is no guarantee that we won't<br>
<br>
</div>Which part of "you can't make widgets smaller than single atoms" you don't<br>
understand?<br></blockquote><div><br></div><div>What part of "There's plenty of room at the bottom" do you not understand. We're not close to the atomic limits on most things.</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">

<div class="im">> make a hop with a new technology and get back on any given curve. It can<br>
> happen.<br>
<br>
</div>A gold meteorite can fall in my garden. Hey, it could happen.<br></blockquote><div><br></div><div>Touche. Getting back on a curve after having fallen off of it is really difficult. It has happened occasionally, but it is rough.</div>
<div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">
<div class="im">><br>
> ><br>
> > > Not, I expect it to come to a screeching halt.<br>
> ><br>
> > Why do you expect that? Look at the price tag of the<br>
> > zEnterprise 196. Obviously, a somewhat higher margin<br>
> > than on a 50 USD ARM SoC.<br>
> ><br>
><br>
> Sorry, you've lost me here. I don't know what these things are.<br>
<br>
</div>It's a cheap mainframe, 75 kUSD entry level. Obviously, CPUs<br>
build from such can be made from unobtainium. But flash drives<br>
and mobile CPUs have low margins, so there's diminished incentive<br>
to go to the next node (especially if the next node has lower<br>
performance than current one).<br></blockquote><div><br></div><div>Thank you for explaining that. I don't pay much attention to mainframes, or even highly parallel computers or supercomputers in my work. I'm mostly interested in PCs, tablets and cell phones, and perhaps Google glass. Consumer related stuff. Yes, the cloud changes that, but I don't play in that world much.</div>
<div><br></div><div>Given that, I'm still not understanding your point. Are these mainframes getting more expensive as time goes on? Are we not on some kind of curve with respect to them? My understanding is that rack based computing is chugging along at an acceptable rate of growth. Am I missing something?</div>
<div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">
<div class="im">> > > If they read your posts here Eugen, they might decide not to thaw you<br>
> > out.<br>
> > > Who needs a pessimist in a utopia... :-)<br>
> ><br>
> > Utopia? I'm afraid I have another piece of bad news for you.<br>
> > Very bad news, I'm afraid...<br>
> ><br>
><br>
> Anyone looking at 2013 from the time frame of 1913 would clearly call this<br>
<br>
</div>Anyone looking at an arbitrary time frame knows that darwinian<br>
evolution still applies.<br></blockquote><div><br></div><div>But we are in the era of memetic evolution, not darwinian. And memes replicate faster, and have a higher mutation rate.</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">

<div class="im">> utopia, at least from the technological standpoint. Also from the number of<br>
> people operating under democracy, decreased violence and a number of other<br>
> points. Not that it is utopia in every way.<br>
<br>
</div>My thesis is that a postecosystem has a food web.<br></blockquote><div><br></div><div>Ok, so here we may have a difference of opinion. I concede that the future ecosystem will have an energy web, but not necessarily food based.</div>
<div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">
<div class="im">><br>
> > > > > I know you MUST believe that computers will continue to get faster,<br>
> > even<br>
> > > > if<br>
> > > > > they don't quite keep up the doubling pace. Right?<br>
> > > ><br>
> > > > What does faster mean? The only reliable way is a benchmark.<br>
> > > > The only really relevant benchmark is the one that runs your<br>
> > > > problem. As such faster never kept up with Moore's law.<br>
> > > > Moore's law is about affordable transistors, and that one<br>
> > > > gives you a canvas for your potential. So your gains are less<br>
> > > > than Moore, and sometimes a lot less. For me personally,<br>
> > > > the bottleneck in classical (GPGPU is classical) computers<br>
> > > > is worst-case memory bandwidth. Which is remarkably sucky,<br>
> > > > if you look it up.<br>
> > > ><br>
> > ><br>
> > > The problem I care about the most is computer vision. We are now<br>
> ><br>
> > Computer vision is very easy, actually, and quite well understood.<br>
> ><br>
><br>
> You are clearly stark raving MAD. There is no computer on earth that can<br>
> tell a cat from a dog reliably at this point.<br>
<br>
</div>There is a significant difference between "I have no idea how to do that"<br>
from "ok, it's mere engineering at this point".<br></blockquote><div><br></div><div>Agreed.</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">
We're understanding processing the retina sufficiently to produce<br>
code that the second processing pipeline can use. We have mapped<br>
features of later processing stages to the point that we know what<br>
you're looking at, or what you're dreaming of. We have off the<br>
shelf machine vision systems for many industrial tasks. We have<br>
autonomous cars that drive better than people.<br></blockquote><div><br></div><div>I agree with all of this except the part of "we know what you're looking at"... if that is state of the art, then I'm way behind. </div>
<div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">This is obviusly one of these cases where we've made some slight<br>

progress over last few decades.<br></blockquote><div><br></div><div>The progress that has been made in computer vision MOSTLY comes from Moore, not from better algorithms. Now, better computers enable algorithms that are less efficient to be tried, and therefore one could argue that some new algorithms have emerged from Moore. There has been progress in computer vision to be sure. The progress is slow. It is largely based upon computational improvements. Algorithmic improvement has occurred, but not at the same rate.</div>
<div><br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">
<div class="im">><br>
><br>
> > The low number of layers and connectivity (fanout), all local at<br>
> > that, a retina needs are within the envelope of silicon fabrication.<br>
> ><br>
><br>
> The retina is not what I'm talking about. I'm discussing image<br>
<br>
</div>But the retina is what I'm talking about, because it's structurally<br>
and functionally simple enough so that Moravec picked it for his analysis.<br>
<a href="ftp://io.usp.br/los/IOF257/moravec.pdf" target="_blank">ftp://io.usp.br/los/IOF257/moravec.pdf</a></blockquote><div><br></div><div>Ok.</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">
<span style="color:rgb(80,0,80)">> understanding. "That is a picture of a dog in front of a house. The house</span><br><div class="im">
> has a victorian architecture. The 1957 Cadillac next to the house would<br>
> indicate that the picture was most likely taken between 1956 and 1976."<br>
<br>
</div>This is beyond machine vision. This is halfway to human-equivalent AI.<br></blockquote><div><br></div><div>But this is what I mean by computer vision. Think if it as computer graphics backwards. In graphics, you take a description and make a scene. In computer vision, you take a scene and produce a description. </div>
<div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">
<div class="im">><br>
> > > approaching automated vehicles becoming a reality. I thought it would<br>
> > > happen in 2014 since 2004. It may be delayed a year or two by bureaucrats<br>
> > > and lawyers, but the technology should be cheap enough for luxury cars to<br>
> ><br>
> > I'm afraid luxury something is going to be a very, very small market<br>
> > in the coming decades.<br>
> ><br>
><br>
> Stop. This is just irritating and unhelpful.<br>
<br>
</div>You can bet this is fucking irritating, because we did it to ourselves!<br>
A pathetic failure of planning.<br>
<div class="im"><br></div></blockquote><div> </div><div>sigh</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">
<div class="im">
><br>
> > I agree that autonomous cars are mostly a very good thing, unless<br>
> > you happen to be a trucker, or a car maker.<br>
><br>
><br>
> I'm not sure how autonomous cars are bad for car makers. I do get why they<br>
<br>
</div>The duty cycle of a personal car is terrible. With autonomous cars you<br>
only need a small fraction of total fleet. You already see the beginning<br>
of this with carsharing smartphone apps. Now you no longer need the hassle<br>
of owning a car just that you can use it. It's just great, unless you're<br>
in the car making business. It's pretty awful if car making is your<br>
country's main moneymaking business, and they're really EV and autonomous<br>
car-tarded.<br></blockquote><div><br></div><div>Ok. That makes sense. Thank you for explaining it to me. (See, I am capable of learning, and also agreeing with you.)</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">

<div class="im"><br>
> are bad for truckers.<br>
><br>
><br>
> > Whatever Germany<br>
> > earns on car making is about enough to pay for the fossil fuel<br>
> > imports.<br>
> ><br>
><br>
> You're confusing me again.<br>
<br>
</div>Obviously, Germany has to figure out some other way to pay for their<br>
fossil fuel imports in the near future.<br></blockquote><div><br></div><div>Ah. You are referring to Germany as a car manufacturing nation. I thought you were referring to Germany as the solar energy capital of the universe. Thus my confusion.</div>
<div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">
<div><div class="h5">><br>
> > > have highway cruise control (including steering) by 2014 or 2015. So my<br>
> > > venture into guessing the future was pretty close, using Ray's technique.<br>
> > ><br>
</div></div></blockquote><div><br></div><div>You never commented on whether we would have autonomous cruise control. </div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">
<div><div class="h5">
> ><br>
><br>
> I totally agree that the 2d processes we are currently using are running<br>
> into limits. But we will keep making the stuff we're making now cheaper. In<br>
<br>
</div></div>Older processes are cheaper than bleeding edge, but that curve saturates<br>
almost immediately. The only way to drop the costs is by using a new technology.<br></blockquote><div><br></div><div>It isn't the ONLY way, but it is important for sure. If every CPU company stopped producing better chips today it would take a long time for a competitor to arise who could do it better. Prices would stop dropping quickly. So in that sense you are correct. </div>
<div><br></div><div>That being said, I think technological progress will continue to be made, and that older technologies will drop in price.</div><div><br></div><div>The hard drive market is a good example that there is a bottom to this. You can't buy a 5 MByte hard drive anymore. Nobody is making them (unless there is some microscopic hard drive I'm unaware of).</div>
<div> <br></div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">
<div class="im">> my mind, that keeps us on Moore until such time as a 3D solution is worked<br>
<br>
</div>We are already off-Moore. </blockquote><div><br></div><div>In the transistors per square cm sense, we probably are. Though it's hard to find data to support even that.</div><div><br></div><div>Not in the dollars per computation realm, unless I'm missing something basic. Honestly, I can't find much data on whether we're on or off Moore. It's frustrating not to know.</div>
<div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">The question is how long it will take until<br>

a different technology can pick up scaling, at least for a brief while<br>
(if you're at atomic limits in the surface, you're only a few doublings<br>
away from where your only option is to start doubling the volume).<br></blockquote><div><br></div><div>I don't have trouble with doubling the volume.</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">

<div class="im"><br>
> out that makes things faster.<br>
><br>
> The main problem in my mind isn't making stuff smaller, but in dissipating<br>
> heat so you can stack it up close to each other. That's what I mean by 2.5<br>
<br>
</div>Stacking is off-Moore. </blockquote><div><br></div><div>The only Moore I care about is $/computation. Any other Moore is irrelevant to me, and to Ray's predictions as well.</div><div> </div><blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex">
One of the scaling limits is that the power scaling<br>
is no longer with us. As you'll notice, no novolatile memory is ready to<br>
pick up the torch of SRAM/DRAM/NOR flash, despite many decades of development.<br></blockquote><div><br></div><div>I posted a paper about this, and yes, you are correct that there is nothing yet close to hard drives.</div>
<div><br></div><div>Too bad you stopped prior to addressing the optimism adds years to your life part.</div><div><br></div><div>-Kelly</div><div><br></div></div></div></div>