PDA

Vollständige Version anzeigen : Globale Ueberwachung der digitalen Kommunikation: Sind die Speicherkapazitaeten vorhanden?



ABAS
12.07.2013, 21:49
In Bezug auf die angeblich vollumfaengliche und globale Ueberwachung
der digitalen Kommunikation habe ich mir Gedanken gemacht ob dafuer
ueberhaupt die technische Kapazitaeten und Personalresourchen bei der
NSA und anderen Diensten vorhanden sind.

Um alle digitalisierten Telefongespraeche, eMails, Dateianhaenge die per
Unterwasserglasfaserkabel und per Satellit durch die ganze Welt geschickt
werden nicht nur selektiv sondern umfassend auszuwerten, muessten die
digitalisierten Daten nicht nur mitgeschnitten sondern gespeichert und
gesichert werden.

Meiner Ansicht nach besteht das know how die Daten mitzuschneiden
aber ich halt es fuer unmoeglich die Daten laengere Zeit zu speichern.
Dabei lege ich folgende Annahme zu Grunde:

Der gigantische Datenverkehr geht ueber die Netzwerke und wird nicht
in den Netzwerken gespeichert sondern nur beim Absender und bei dem
oder den Empfaengern.

Legen wir nur bei 40 Millionen eMails bzw. Telefongespraechen pro Tag
eine Datenmenge von 1 Megabyte zugrunde, die ueber die Datenleitung
geht und abgehoert wird sind das allein in Deutschland dann 40 Millionen
Megabyte, 40.000 Gigabyte bzw. 40 Terrabyte.

Wenn jemand groesse Dateianhaenge in den eMails versendet oder z.B.
lange telefoniert, Bild- oder Videodateien versendet steigt die Menge der
Daten leicht pro Tag in den Peta- und Exabytebereich an.

Addiert man alle Daten digitaler Kommunikation anderer Laender die pro
Tag ueber die Glasfaserkabel und per Satellit verschickt werden muesste
die NSA, wenn sie nicht nur selektiv auswerten will, sondern alles was an
digitalen Datenstroemen vorhanden ist, aufzeichnen und abspeichern.
Das erforderte Speicherkapazitaeten im Zetta- und Yottabytebereich.

Das diese Speicherkapazitaeten bei der NSA oder einem der anderen
Geheimdienste zur Verfuegung stehen schliesse ich aus. Ich kann mir
das nicht vorstellen. Meiner Ansicht nach koennen die Geheimdienste
die gigantischen Datenstroeme nur mitlesen und selektiv auswerten.

Informatiker und Hardwarespezialisten duerfen mich gerne mit Belegen
davon uberzeugen falls ich einem fatalen technischen Irrtum unterliege.

Gawen
12.07.2013, 21:59
Es genügt, wenn sie die Daten deduplizieren und komprimieren.

"Nach Angaben des National Public Radio, das William Binney, einen Mathematiker und ehemaligen technical director der NSA zitiert, soll das Rechenzentrum schätzungsweise 5 Zettabyte an Informationen speichern und verarbeiten können.[4] Umgerechnet auf die Weltbevölkerung entspräche diese Kapazität einem Datenvolumen von etwa 700 Gigabyte pro Person."
(wiki)

Das langt für Deinen qualifizierten Lebenslauf. :D

ABAS
12.07.2013, 22:04
Es genügt, wenn sie die Daten deduplizieren und komprimieren.

"Nach Angaben des National Public Radio, das William Binney, einen Mathematiker und ehemaligen technical director der NSA zitiert, soll das Rechenzentrum schätzungsweise 5 Zettabyte an Informationen speichern und verarbeiten können.[4] Umgerechnet auf die Weltbevölkerung entspräche diese Kapazität einem Datenvolumen von etwa 700 Gigabyte pro Person."
(wiki)

Das langt für Deinen qualifizierten Lebenslauf. :D



Die Angaben muessen nicht stimme. Die Amis pushen und posen bekanntlich! :fizeig:

Die einzige Meldung die ich bisher ueber die weltweit groesste und bekannte
Speicherkapazitaet recherchieren konnte ist von 2011 und zu dem Zeitpunkt
war die groesste Speicherkapazitaet eine Rechenzentrums ca. 12 Petabyte.


IBM baut den größten Speicher der Welt

29.08.2011, 13:33 Uhr | Yaw Awuku

IBM verbaut 200.000 Festplatten zu einem neuen Rekord-Speicher

Das hat es noch nie gegeben: 200.000 herkömmliche Festplatten sollen im Verbund den größten Speicher der Welt bilden. Wie das Magazin "Technology Review" berichtet, wird der Rekord-Speicher von IBM 120 Petabyte an Daten aufnehmen können – das sind über 125 Millionen Gigabyte. Damit würde der Datengigant die Kapazitäten der bisher größten Speichersystem um fast das Zehnfache übertreffen.

Den bisher größten Datenspeicher der Welt entwickelt IBM in seinem Forschungszentrum Almaden im US-Bundesstaat Kalifornien. Der 120 Petabyte große Speicher soll in Zukunft Platz für eine Trillion Dateien bieten. Auf dem digitalen Speichersystem ließen sich aber auch 24 Milliarden MP3s mit einer Dateigröße von jeweils fünf Megabyte speichern. Eine Kopie der WayBack Machine, dem größten Internet-Archiv mit 150 Milliarden Internetseiten, könnte locker 60 mal auf dem Speicher-Riesen abgelegt werden. "Dieses 120 Petabyte-System bewegt sich schon am Rande des Wahnsinns", kommentierte Bruce Hilsberg sein Projekt. Allein das Verwaltungssystem für alle gespeicherten Dateien benötigt zwei Petabyte Speicher.

http://www.t-online.de/computer/hardware/id_49287552/120-petabyte-ibm-baut-den-groessten-speicher-der-welt.html

Wenn IBM 2011 noch 200.000 Festplatten zu einem Rekordspeicher zusammenschalten musste,
und das dann ein Maximum von 120 Petabyte ergab, denke ich nicht das sich da in nur 2 Jahren
soviel getan hat. Das ist unwahrscheinlich zumal die USA seit Jahren finanziell insolvent sind!

Ich vermute allmaehlich das die gesamte Aktion der angeblichen globalen Ueberwachung durch
die NSA eine systematische Strategie der Einschuechterung und Verunsicherung ist und Snowdon
damit der NSA ein gefallen getan hat oder sogar beauftragt wurde.

ABAS
12.07.2013, 22:23
Google hat bekanntlich die groesste Speicherkapazitaet in seinen Rechenzentren
und haengt dafuer an einem eigenen Stromnetz. 2012 hatte Google eine Kapazitaet
von 40 Petabyte und damit 4 mal mehr als der groesste Supercomputer:


What is Google's total computational capacity?

I estimate: 40 petaflops

This is 4x as powerful as the world's most powerful supercomputer.

For competitive reasons Google doesn't reveal this information themselves. We can, however, estimate their total number of servers together with the capacity per server. These figures can then be compared to other high-performance computer systems and used to extrapolate total capacity.

Number of servers

In a previous post from January 2012 (goo.gl/Dg1va) I calculated that Google's total number of servers is around 1,800,000. This includes all eight of their self-built data centers currently in operation worldwide. Other respected industry watchers are saying Google has 900,000 servers (goo.gl/X769K). But that figure is based on only a single data point (energy usage) that is both unreliable and over a year old. Google have opened whole new data centers since then. So I still think 1,800,000 is a reasonable up-to-date estimate.

Average power per server

In 2009 it was revealed that the average Google server is a commodity-class, dual-processor, dual-core, x86 PC system. That is, each server has four processor cores. See the paper where this is described: goo.gl/ipFLt (PDF, page 7). Note that this paper was published three years ago. It's quite possible that the servers are replaced over a three-year cycle. So the average now, in 2012, might be a dual-processor, quad-core system (eight cores per server, or even more). But let's be conservative and assume the 2009 info is still valid.

This means Google is running ~7,200,000 processor cores.

Google has said they go for power in numbers. That is, they use lots of cheap processors rather than a smaller number of costlier, more powerful ones. Let's assume then that the average processor is one that first came to market five years ago, i.e. in 2007. This might be the Intel Core2 Duo E4400 (goo.gl/SjcJZ) running at 2 GHz. This processor is capable of around 6 gigaflops per core. Multiply that by our estimated number of cores and Google's total comes out at 43 petaflops.

The capacity of a system is not, however, a simple multiplication of core count and flops-per-core. Rarely can a system reach its theoretical maximum. So for that reason it's helpful to look at other large-scale systems where the total capacity is known.

TOP500 supercomputers

According to the top500.org list, the world's most powerful supercomputer is currently the K computer in Japan. It has 705,024 processor cores and a maximum speed of 10 petaflops. This gives it an average speed-per-core of 14.9 gigaflops.

The K computer uses Sparc VIIIfx processors which are rated at 16 gigaflops per core. This tells us that the supercomputer is achieving 93% of the theoretical capacity of all its processors combined. If Google's servers achieve a similar percentage that would mean their total capacity is 40 petaflops, or four times that of the K computer.

Note that even if Google were able and inclined to run the Linpack benchmark across their whole platform they still wouldn't qualify for inclusion in the TOP500 list. Supercomputers only qualify if they're housed entirely under a single roof.

Amazon EC2 Cluster

An Amazon EC2 Cluster instance is currently number 42 on the TOP500 list. Like Google, it is also built using commodity hardware. The exact details are not known, but their web pages mention Xeon and Opteron x86 processors. In a benchmark test the cluster was able to achieve 240 teraflops using 17,024 cores. This averages to 14 gigaflops per core. If Google's servers are around the same performance, that would give them a total of just over 50 petaflops.

Grid computing

BOINC is a grid computing system originally developed for the SETI@home project. Volunteers around the world download client software which utilizes their PC's spare CPU cycles for scientific research. As of February 2012 the system has ~450,000 active computers (hosts) and processes on average 5.7 petaflops.

If we assume that the average BOINC host has the same power as the average Google server, and if we also assume that the average BOINC host is utilized the same amount of time as a Google server, then we can simply multiply the figures. Google has four times the number of servers as BOINC has hosts, so that would mean Google's total processing power is 22.8 petaflops.

Folding@home is another distributed computing project similar to BOINC. It is designed to perform simulations of protein folding and other molecular dynamics. As of February 2012 the project had around 414,000 active processors for a total of 8.4 petaflops. If we assume that Google's average processor performs similar to the average Folding@home processor, this would bring Google's total processing power to 36 petaflops.

Future growth

If Google's computational capacity grows according to Moore's Law then it will double every 18 months. This means Google will become an exascale machine (capable of 1 exaflops) by 2019.

Google said themselves in 2009 that their system is designed for 1 to 10 million servers (goo.gl/kR2ph). If they have ~2 million currently, that means there's room for five-fold growth, which would mean up to ~200 petaflops.

To reach 1 exaflops Google might need to evolve their architecture. Maybe that they'll start using GPUs, or processors with hundreds of cores. I've no idea, but I would guess someone inside Google is already thinking about it.

https://plus.google.com/114250946512808775436/posts/gTFgij36o6u

Google prognostieziert die technische Entwicklung der eigenen Speicherkapazitaeten
erst im Jahr 2019 auf den Exabyte Bereich. Daher halte ich es fuer hoechst
unwahrscheinlich das die NSA 2013 schon auf diesem Technikstand ist und
die Speicherkapazitaeten hat. So wie ich das sehe haben Edward Snowden und die
NSA die ganze Welt verascht! Das nenne ich gelungenes Pushing und Posing!
Mao war nicht nur weise sondern auch ein Seher und hatte Recht: Die Amerikaner
waren, sind und bleiben nur "Papiertiger"!

Ich werde jetzt mal meiner Frau sagen sie soll mit ihrer Mutter in China
telefonieren. Das geht dann mehrere Stunden. Vermutlich brechen dann
im Rechenzentrum der NSA die Server zusammen! :fizeig:

ABAS
12.07.2013, 23:13
Die Top 500 Liste der weltweit leistungsstaerksten Supercomputer:


Plaetze 1- 10 (Stand Juni 2013)

1 National University of Defense Technology
China Tianhe-2 (MilkyWay-2) - TH-IVB-FEP Cluster, Intel Xeon E5-2692 12C 2.200GHz, TH Express-2, Intel Xeon Phi 31S1P
NUDT 3120000 33862.7 54902.4 17808

2 DOE/SC/Oak Ridge National Laboratory
United States Titan - Cray XK7 , Opteron 6274 16C 2.200GHz, Cray Gemini interconnect, NVIDIA K20x
Cray Inc. 560640 17590.0 27112.5 8209

3 DOE/NNSA/LLNL
United States Sequoia - BlueGene/Q, Power BQC 16C 1.60 GHz, Custom
IBM 1572864 17173.2 20132.7 7890

4 RIKEN Advanced Institute for Computational Science (AICS)
Japan K computer, SPARC64 VIIIfx 2.0GHz, Tofu interconnect
Fujitsu 705024 10510.0 11280.4 12660

5 DOE/SC/Argonne National Laboratory
United States Mira - BlueGene/Q, Power BQC 16C 1.60GHz, Custom
IBM 786432 8586.6 10066.3 3945

6 Texas Advanced Computing Center/Univ. of Texas
United States Stampede - PowerEdge C8220, Xeon E5-2680 8C 2.700GHz, Infiniband FDR, Intel Xeon Phi SE10P
Dell 462462 5168.1 8520.1 4510

7 Forschungszentrum Juelich (FZJ)
Germany JUQUEEN - BlueGene/Q, Power BQC 16C 1.600GHz, Custom Interconnect
IBM 458752 5008.9 5872.0 2301

8 DOE/NNSA/LLNL
United States Vulcan - BlueGene/Q, Power BQC 16C 1.600GHz, Custom Interconnect
IBM 393216 4293.3 5033.2 1972

9 Leibniz Rechenzentrum
Germany SuperMUC - iDataPlex DX360M4, Xeon E5-2680 8C 2.70GHz, Infiniband FDR
IBM 147456 2897.0 3185.1 3423

10 National Supercomputing Center in Tianjin
China Tianhe-1A - NUDT YH MPP, Xeon X5670 6C 2.93 GHz, NVIDIA 2050
NUDT 186368 2566.0 4701.0 4040


http://www.top500.org/list/2013/06/



Tianhe-2, a supercomputer developed by China’s National University of Defense Technology, is the world’s new No. 1 system with a performance of 33.86 petaflop/s on the Linpack benchmark, according to the 41stedition of the twice-yearlyTOP500 list of the world’s most powerful supercomputers. The list was announced June 17 during the opening session of the 2013 International Supercomputing Conference in Leipzig, Germany.

Tianhe-2, or Milky Way-2, will be deployed at the National Supercomputer Center in Guangzho, China, by the end of the year. The surprise appearance of Tianhe-2, two years ahead of the expected deployment, marks China’s first return to the No. 1 position since November 2010, when Tianhe-1A was the top system. Tianhe-2 has 16,000 nodes, each with two Intel Xeon IvyBridge processors and three Xeon Phi processors for a combined total of 3,120,000 computing cores.

Titan, a Cray XK7 system installed at the U.S. Department of Energy’s (DOE) Oak Ridge National Laboratory and previously the No. 1 system, is now ranked No. 2. Titan achieved 17.59 petaflop/s on the Linpack benchmark using 261,632 of its NVIDIA K20x accelerator cores. Titan is one of the most energy efficient systems on the list, consuming a total of 8.21 MW and delivering 2,143 Mflops/W.

Sequoia, an IBM BlueGene/Q system installed at DOE’s Lawrence Livermore National Laboratory, also dropped one position and is now the No. 3 system. Sequoia was first delivered in 2011 and has achieved 17.17 petaflop/s on the Linpack benchmark using 1,572,864 cores. Sequoia is also one of the most energy efficient systems on the list, consuming a total of 7.84 MW and delivering 2,176.6 Mflops/W.

Fujitsu’s “K computer” installed at the RIKEN Advanced Institute for Computational Science (AICS) in Kobe, Japan, is now the No. 4 system with a performance of 10.51 Pflop/s on the Linpack benchmark using 705,024 SPARC64 processing cores.

A second BlueGene/Q system, Mira, installed at Argonne National Laboratory is at No. 5 with 8.59 petaflop/s on the Linpack benchmark using 786,432 cores.

Rounding out the Top 10 are the upgraded Stampede at the Texas Advanced Computing Center of the University of Texas, Austin; JUQUEEN at the Forschungszentrum Juelich in Germany (and the most powerful system in Europe); an IBM BlueGene/Q system at Lawrence Livermore National Laboratory; SuperMUC, an IBM iDataplex system installed at Leibniz Rechenzentrum in Germany; and Tianhe-1A at the National Supercomputing Center in Tianjin, China.

http://www.top500.org/lists/2013/06/

ABAS
13.07.2013, 10:46
Rechenzentren der Welt mit der groessten Speicher und Rechenleistung:


Top 10: Die größten Rechenzentren der Welt

25.04.2010

Platz 1: Lakeside Technology Center

Das Gebäude an der 350 East Cermark Road in Chicago erfüllt die Vorstellung von einem Rechenzentrum ganz und gar nicht. Es wurde 1912 errichtet und beherbergte ursprünglich die Druckerpressen für Versandhauskataloge und Telefonbücher. Heute gehört es dem Unternehmen Digital Realty Trust, einer der größten Betreiber von Rechenzentren in den USA. Auf 102.000 Quadratmetern haben etwa 70 Peering- und Connectivity-Provider ihre Server untergebracht.

Versorgt wird das Gebäude mit 100 Megawatt elektrischen Strom. Damit ist das Lakeside Technology Center der zweitgrößte Abnehmer des lokalen Energieversorgers ComEd – gleich hinter dem internationalen Flughafen von Chicago. Bei der Kühlung der Server-Räume nutzt der Betreiber einen riesigen Tank mit über 32 Millionen Liter Kühlflüssigkeit, der auch andere Industrieeinrichtungen in der Gegend versorgt. Die Flüssigkeit wird über einen Wärmeaustauscher an das eigene Kühlsystem gekoppelt, das aus einem Wasser-Glykol- und Luftkühl-System besteht.


http://business.chip.de/news/Top-10-Die-groessten-Rechenzentren-der-Welt_42553305.html

ABAS
13.07.2013, 10:48
Prototyp des groessten Speichers der Welt hatte 2011 die Speicherleistung von 120 PetabByte
und damit eine 4 mal so grosse Kapazitaet wie konventionelle Hochleistungsrechner.


News: Der größte Speicher der Welt kommt von IBM
erstellt am: 30.08.2011

Bruce Hilsberg kann sichtlich stolz auf sein ambitioniertes Projekt sein. “Dieses Projekt ist jetzt am Rande des Wahnsinns, aber in ein paar Jahren werden vielleicht alle Cloud Computing-Systeme so aussehen”, spricht der Projektleiter bei IBM begeistert über den größten Speicher der Welt. 120 Petabyte Platz bietet das Monster, was etwa dem Umfang von über 125 Millionen Gigabyte entspricht. Um diese enorme Kapazität zu erreichen, wurden rund 200.000 Festplatten miteinander gekoppelt.
Natürlich sind damit auch logische Schwierigkeiten verbunden. Fällt eine der zahlreichen Festplatten urplötzlich aus, kann es recht leicht zu Datenverlusten kommen. Dem möchte IBM mithilfe des sogenannten RAID-System entgegenwirken. Bei diesem System werden von Daten auf anderen Festplatten mehrere Kopien abgelegt. Das erzeugt jedoch einen hohen Arbeitsaufwand für das System, wodurch die Leistung beeinträchtigt werden kann. Auch hier hat IBM die passende Antwort. Extra für den Riesen-Speicher entwickelte das Unternehmen einen eigenes Dateisystem, welches auf den Namen General Parallel File System, kurz GPFS, hört. Hierbei sollen etwa 10 Millarden Daten innerhalb von 43 Minuten indiziert werden. Das ist neuer Rekord. Denn bislang war es lediglich möglich, eine Milliarden Dateien in drei Stunden zu indizieren.
Allerdings ist bislang nicht bekannt, warum IBM an dem größten Speicher der Welt werkelt. Ein Auftraggeber ist bislang ebenfalls nicht bekannt. Solch großen Speicherkapazitäten werden vor allem für komplexe Simulationen benötigt. Ein besonders beliebtes Gebiet ist hier die Berechnung und Verarbeitung von Wetterdaten.
http://www.hardbloxx.de/2011/08/30/news-der-groste-speicher-der-welt-kommt-von-ibm/

ABAS
13.07.2013, 10:49
Die Rangliste der groessten Hoster weltweit nach Anzahl der Servern:


Hoster Rangliste (nach Servern)

Immer wieder liest man von den ominösen und riesigen Rechenzentren von Google.* Allerdings ist Google nicht der Einzige der mittlerweile riesige Serverfarmen betreut und betreibt.
Ich habe mir die Mühe gemacht und auf Basis der Vorlage hier einige Hoster zusammengefasst, die über eine ziemlich hohe Serverzahl verfügen. Da wären unter anderem:
OVH: more than 70.000 Server
1&1 Internet: 65.000 Server
Rackspace: 50.038 Server
The Planet: 48.500 Server
Akamai Technologies: 48.000 Server
Hetzner: 40.000 Server
Strato: 35.000 Server
Plusserver (inkl. Server4you und Serverloft): 30.000 Server
Verizon: 25.788 Server
Time Warner Cable: 24.817 Server
SoftLayer: 24.000 Server
AT&T: 20.068 Server
Hosteurope: bis zu 24.000 Server
Peer1/ServerBeach: 10.277 Server
iWeb: 13,800 Server

Alle Angaben stammen aus Pressemitteilungen und beruhen auf Angaben der Unternehmen. Einige Daten wurden mit Netcraft ermittelt.
Natürlich waren oben genannten Unternehmen, nicht alle, die über tausende an Servern verfügen. Viele Unternehmen machen aus ihrer Serverzahl ein Geheimnis und lösen bei Vielen eine Welle der Spekulation aus. Das sind vor allem kleinere Unternehmen oder aber auch die ganz Großen…

Hier noch mal eine Aufstellung an Unternehmen, bei denen man davon ausgehen kann, dass sie über mehr als 50.000 Server in Betrieb haben. Zum Teil deutlich…

Google:
Seit jeher gibt es zahlreiche Spekulatione über die Serveranzahl im Hause Google. Vielen Schätzungen zufolge beläuft sich die Serverzahl auf 450.000, diese Zahl stammt jedoch aus dem Jahre 2006. Inzwischen findet man ein weiteres Google-Rechenzentrum in Spree. Vor kurzem gab Google bekannt, dass dieses Container-Rechenzentrum über mehr als 45. Server verfügt.

Microsoft:
Die letzten Serverzahlen, die man von Microsoft erhielt, stammen aus dem 2. Quartal des Jahres 2008. Damals stand der Zähler bei 218.000 Servern. Inzwischen geht man davon aus, dass aufgrund der neuen Einrichtung in Chicago die Zahl der Server auf über 300.000 angestiegen ist. Wird diese Anlange weiter eingesetzt, so wird die Anzahl der Microsoft-Server weiter rapide ansteigen.

Amazon:
Amazon verfügt über den größten Online-Shop der Welt. Amazon gibt sehr wenig über seinen Daten-Center-Betrieb preis, jedoch weiß man, dass über 86 Millionen Dollar für Server von Rackable ausgegeben wurden. Im S3 Speicher-Service befinden sich zurzeit über 40 Milliarden Objekte.

eBay:
160 Millionen Menschen sind auf der Plattform des Online-Auktionshaus aktiv. Zusätzlich kommen noch 443 Millionen Skype-Nutzer hinzu. Dies erfordert ein riesiges Rechenzentrum. Insgesamt sind über 8,5 Petabyte Daten von Ebay gesichert. Die Serverzahl von eBay kann schwer geschätzt werden, mit Sicherheit gehört eBay aber in den 50.000 Server-Club.

Yahoo:
Das Yahoo-Rechenzentrum ist zwar wesentlich kleiner als jene von Google und Microsoft, dennoch ist davon auszugehen, dass Yahoo üb mehr als 50.000 Server in Betrieb hat, die den kostenlosen Hosting-Betrieb sowie die bezahlten Hostings und den Yahoo Store unterstützen.

GoDaddy:
GoDaddy ist mit mehr als 35 Millionen Domains, das Unternehmen, dass die meisten Domains registriert hat. Zusätzlich zählt GoDaddy zu den größten Hosting-Operatoren der Welt. Die Infrastruktur des Unternehmens erinnert an jene von 1&1 Internet.

HP/EDS:
Dieses Unternehmen hat ein enorm großes Rechenzentrum. Unternehmensdokumente besagen, dass EDS über 380.000 Server in 180 Rechenzentren verfügt.
IBM: Die Fläche des Rechenzentrums von IBM beträgt über 8 Millionen Quadratmeter. Daraus ergibt sich auch eine hohe Anzahl an Servern, die sowohl für das Unternehmen als auch für seine Kunden sind.

Facebook:
Die einzige Information, die Facebook bekannt gab, ist dass das Unternehmen im Rechenzentrum mehr als 10.000 Server stehen hat. Da Facebook über 200 Millionen Benutzer verfügt, die mehr als 40 Milliarden Fotos eingestellt haben, ist davon auszugehen, dass die Zahl der Server über 50.000 hinausgeht. Neuerdings möchte Facebook eine ähnliche RZ-Architektur wie Google einsetzen.

http://servermaniac.de/marktuebersicht/server-hoster-rangliste/

ABAS
13.07.2013, 10:59
Im Fruehjahr 2012 begannen die gezielte Desinformationskampaganen des CIA ueber
die vorgeblich vorhandenen bzw. im Ausbau befindlichen gigantischen Speicher- und
Rechenkapazitaeten der NSA die zur Taeuschung den Eindruck der Moeglichkeit einer
totalen Ueberwachung des globalen digitalen Datenverkehrs durch die NSA in die Medien
lanciert wurden. Die CIA und NSA beabsichtigen damit im Cyberkrieg weltweit als eine
ueberlegene Macht angesehen zu werden und positionieren sich damit selbst staerker
als die USA tatsaechlich sind:



USA arbeiten am größten Datenstaubsauger der Welt
15.05.12
Spionagemaschine

USA arbeiten am größten Datenstaubsauger der Welt

Von Google-Suchen bis zu Finanztransaktionen: In einem Supercomputer in einer Salzwüste will der amerikanische Geheimdienst NSA alles speichern. Und solche Datenkraken sind kein Einzelfall. (von Ulrich Clauß)

Es soll einer der größten Datenspeicher der Welt werden, das "Utah Data Center" in der Salzwüste nahe Bluffdale im Südwesten der USA. Bauherr ist die National Security Agency (NSA), und gespeichert werden soll dort einfach alles: Weltweit eingefangener E-Mail-Verkehr, Telefonate, Google-Suchen, Facebook-Einträge, Navigationsdaten, Finanzverkehr – alles, was in digitaler oder analoger Form rund um den Erball schwirrt.
Zwei Milliarden Dollar kostet der Komplex die USA, der ein weltweites Spionagesystem vervollständigen soll. Das Datenvolumen der Einrichtung soll in der Größenordnung von Yottabytes bemessen sein. Ein Yottabyte ist eine Billiarde Gigabyte (Handelsübliche Laptops haben derzeit etwa 500 Gigabyte). Ende 2013 soll der Datenspeicher fertig sein.

Große Rechenkapazitäten für Entschlüsselung nötig

Doch das ist nur die eine Seite dieses gigantischen Projektes der "N(o) S(uch) A(gency)", wie Mitarbeiter gern die extreme Geheimhaltung ihres Arbeitgebers ironisieren. Denn ohne gigantische Rechenkapazitäten zur Entschlüsselung geschützter Datenbestände ist auch der größte Geheimdienstspeicher nichts wert.
Ab 2018 sollen eine Batterie Supercomputer zur Analyse der Datenmassen funktionstüchtig sein. Denn wer die weltweit eingesammelten Datenschätze tatsächlich heben will, muss über avancierte Entschlüsselungsmethoden und ungeheure Rechenkapazitäten verfügen.

Die modernste Spionagemaschine der Welt

Technisch stellt der Komplex dann die modernste Spionagemaschine der Welt dar, politisch ist sie aber für viele ein Albtraum – zumindest für Datenschützer und Bürgerrechtler und sogar für einige Spionage-Experten selbst. "Wir stehen unmittelbar vor einem schlüsselfertigen totalitären Staat", so formulierte es der ehemalige NSA-Beamte William Binney, einst ein hochrangiger Verschlüsselungsexperte der Agency, der jetzt wesentliche Informationen über das Utah Data Center im amerikanischen Magazin "Wired" preisgab.
Eine parlamentarische Kontrolle der NSA scheint tatsächlich kaum zu greifen. Die Befugnisse der US-Sicherheitsdienste sind nach 9/11 (Homeland Security Act) ohnehin nahezu unbegrenzt. Die Ermächtigung durch die neue Infrastruktur ist nahezu grenzenlos. Werden also Datenschutz und Bürgerfreiheit in der Salzwüste von Utah endgültig zu Grabe getragen?
Das ist eine Frage des Standpunktes. Dass Freiheit ohne Sicherheit nicht zu haben ist, diese Erkenntnis ist so alt wie die Menschheit. Und so gehören Spionage und Gegenaufklärung seit jeher nicht nur zum Kampf um Macht und Geld – sondern eben auch zum Kampf um Freiheit. Neu allerdings sind Umfang und Mächtigkeit der Organisationen, die dieses Geschäft betreiben. Dass die NSA und die US-Militär-Logistik auf diesem Gebiet weltweit führend sind, hat dabei nicht zuletzt historische Gründe.

NSA-Vorläufer war die "schwarze Kammer"

1919 wurde als früher Vorläufer der NSA die Einheit MI-8, die sogenannte schwarze Kammer gegründet. Mit ihr eroberten sich die USA praktisch die Vorherrschaft auf dem Gebiet der sicherheitspolitisch eingesetzten Kryptologie. Finanziert wurde MI-8 vom US-Außenministerium und der Armee. Eine Gruppe von Kryptografen sollte sich vorrangig um das Knacken von Verschlüsselungen kümmern.

Gegründet wurde die Struktur der NSA von US Präsident Harry S. Truman in den 1940er-Jahren als Abteilung des Verteidigungsministeriums. Direkter Vorläufer war die Armed Security Agency (ASA). Seit November 1952 hat sie offiziell den Auftrag, ausländische Nachrichtenverbindungen aufzuklären. Sie ist direkt dem Nationalen Sicherheitsberater des Präsidenten unterstellt. Ihrer Charta nach arbeitet sie nicht operativ mit eigenen Einsatzkräften wie etwa die CIA, sondern ausschließlich beobachtend. Doch das könnte sich bald ändern.

Cyber-Kriege finden längst statt

Im Zusammenhang mit den Bedrohungen durch Cyber-Attacken auf kritische Infrastruktureinrichtungen wie Kraftwerke und Wasserwerke durch Terroristen oder unfreundlich gesinnte Regime haben führende Sicherheitspolitiker der USA in den vergangenen Monaten mit beeindruckenden Argumenten immer wieder auf eine "aktive" Rolle der Cyber-Abwehr gedrängt. Ein rein passiver Schutz reiche nicht mehr aus, so ihr Votum.
Und wer könnte gegebenenfalls diese "aktive" Rolle besser spielen als die NSA mit ihren Spezialisten? Cyber-Kriege kennen jedenfalls weder Konvention noch Kriegserklärung – und glaubt man den Verteidigungsexperten finden sie längst statt. Jeden Tag im Netz und mit beträchtlichen, nur sehr selten öffentlich eingestandenen Schäden.

"Echelon" blieb lange Zeit ein Mythos

All das war bereits absehbar im Zeitalter der analogen Telefonie, als die NSA schon ein weltweites, auf Bodenstationen wie Satelliten gestütztes Abhörnetz mit dem Systemnamen "Echelon" (griechisch, auf Deutsch "Schlachtordnung", auch "Beugungsgitter") betrieb. Bereits 1976 hatte ein ehemaliger NSA-Mitarbeiter die Existenz von Echelon auf einer Pressekonferenz enthüllt. Nachfragen an ihn waren damals allerdings nur kurze Zeit möglich, noch im selben Jahr verschwand der Mann spurlos......


http://www.welt.de/wirtschaft/webwelt/article106315727/USA-arbeiten-am-groessten-Datenstaubsauger-der-Welt.html

ABAS
13.07.2013, 11:11
Faktenlage:

Die Datendimensionen

1.024 KB ein Megabyte = 210 KiloByte
1.024 MB ein Gigabyte = 210 MegaByte
1.024 GB ein Terabyte = 210 GigaByte
1.024 TB ein Petabyte = 210 TeraByte
1.024 PT ein Exabyte = 210 PetaByte
1.024 EB ein Zetabyte = 210 ExaByte
1.024 ZB ein Yotabyte = 210 ZetaByte

Der Energieaufwand

40 PetyByte Speicher- und Rechenleistung benoetigen ca. 100 Megewatt Energie.
ExaByte Rechner seitens des Energiebedarfes schwer in den Griff zu bekommen.
Was ein Speicher- und Rechensystem im Zeta- und YptByte Bereich an Strom fuer
den Betrieb benoetigt kann meiner Ansicht nach nicht gedeckt werden. Da gingen
in den USA die Lichter aus weil das Stromnetz kolabierte.

Das Kuehlproblem

Rechenzentren erfordern schon bei der bekannten Hoechstleistung von bisher
ca. 40 PetaByte einen erheblichen Aufwand fuer das Kuehlsystem


Das Verwaltungsproblem

Der Prototyp Superrechner von IBM mit einer maximalen Leistung von
120 PetaByte benoetigte davon schon mehr als 10 % fuer den Aufwand
der Indizierung und Verwaltung der Daten.


Analyse:


Im Jahre 2011 hat IGM einen Supercomputer mit einem riesen Aufwand
konstruiert indem 200.000 herkoemmliche Festplatten zu einer Einheit
zusammengeschaltet wurden die dann 120 Petabyte Speicherleistung und
damit 4 mal soviel Daten speichern konnte als die groessten Rechnenzentren.

2013 liegen die Top Computer mit der groessten Speicher- und Rechenleistung
immer noch im Bereich von ca. 30-40 PetaByte. Fuer die Stromversorgung
sind dabei ca. 100 Megawatt und ein extrem hoher Aufwand fuer die Kuehlung
notwenig.

Das die Amerikaner binnen nur eines Jahres Supercomputer entwickelt und
zur Anwendungsreife gebracht haben der im YotaByte Bereich liegt ist daher
nicht nur unwahrscheinlich sondern auch vom Energiebedarf und Kuehlsystem
unmoeglich.

Ein derartiger Supercomputer haette nicht nur einen gigantischen Bedarf an
Energie und Kuehlung sondern erforderte auch ein Verwaltungssystem das
es bisher fuer diese Groessenordnung auf der ganzen Welt nicht gibt.

Ich gehe daher davon aus das es sich bei der Veroeffentlichung der von den
NSA vorgeblich praktizierten vollumfaenglichen globale Ueberwachung um
eine psyische Cyberkriegfuehrung handelt, aehnlich wie es mit dem von der
USA synthetische erzeugten Finankrieg war.

Die Hintermaenner der Regierung wollen in der Weltoeffentlichkeit das Bild
erwecken das sie zu totaler Ueberwachung faehig und technisch den anderen
Laendern auf der Welt erheblich ueberlegen sind. Was faktisch nicht den Tatsachen
entsprechen kann. Edward Snowden und einige Mitarbeiter der NSA vor ihm
betreiben demanach hoechstwahrscheinlich Desinformation im Auftrag der CIA.

Indem bei den Menschen und Regierungen auf der Welt der Eindruck vermittelt wird
ihre gesamte digitale Datenkommunikation werden von der NSA ueberwacht und nicht
nur selektiv ausgewertet, aendern sich die Menschen unbewusst in ihrem Verhalten, was
in der psychischen Wirkung einer Zensur gleichkommt.

Die strategische Vorgehensweise durch gezielte Lancierung und Platzierung von falschen
Tatsachen ueber das Vorhandensein nicht vorhandene technischer Kapazitaeten mit dem
Tarninstrument des angeblichen "Geheimnisverrates" ist psychologische Kriegsfuehrung
und damit ein Verbrechen der Agression.

Fazit:

Die CIA und NSA betreiben subversive Desinformation um Staerke in einem Cyberkrieg
vorzutaeuschen. Damit sollen sowohl die Voelker auf der Welt als auch andere Regierungen
in der Moral manipuliert und geschwaecht werden.

Die angebliche "Totalueberwachung" seitens der NSA ist damit nicht mehr und nicht
weniger als das uebliche Pushing und Poseing des Papiertigers USA. Die Vorgehensweise
wird genauso erkannt werden wie der synthetisch erzeugte "Finanzkrieg" welcher ebenfalls
mit dem Instrument der psychologischen Kriegsfuehrung als Angriffskrieg erfolgte.

Helgoland
13.07.2013, 12:45
In Bezug auf die angeblich vollumfaengliche und globale Ueberwachung
der digitalen Kommunikation habe ich mir Gedanken gemacht ob dafuer
ueberhaupt die technische Kapazitaeten und Personalresourchen bei der
NSA und anderen Diensten vorhanden sind.

Um alle digitalisierten Telefongespraeche, eMails, Dateianhaenge die per
Unterwasserglasfaserkabel und per Satellit durch die ganze Welt geschickt
werden nicht nur selektiv sondern umfassend auszuwerten, muessten die
digitalisierten Daten nicht nur mitgeschnitten sondern gespeichert und
gesichert werden.

Meiner Ansicht nach besteht das know how die Daten mitzuschneiden
aber ich halt es fuer unmoeglich die Daten laengere Zeit zu speichern.
Dabei lege ich folgende Annahme zu Grunde:

Der gigantische Datenverkehr geht ueber die Netzwerke und wird nicht
in den Netzwerken gespeichert sondern nur beim Absender und bei dem
oder den Empfaengern.

Legen wir nur bei 40 Millionen eMails bzw. Telefongespraechen pro Tag
eine Datenmenge von 1 Megabyte zugrunde, die ueber die Datenleitung
geht und abgehoert wird sind das allein in Deutschland dann 40 Millionen
Megabyte, 40.000 Gigabyte bzw. 40 Terrabyte.

Wenn jemand groesse Dateianhaenge in den eMails versendet oder z.B.
lange telefoniert, Bild- oder Videodateien versendet steigt die Menge der
Daten leicht pro Tag in den Peta- und Exabytebereich an.

Addiert man alle Daten digitaler Kommunikation anderer Laender die pro
Tag ueber die Glasfaserkabel und per Satellit verschickt werden muesste
die NSA, wenn sie nicht nur selektiv auswerten will, sondern alles was an
digitalen Datenstroemen vorhanden ist, aufzeichnen und abspeichern.
Das erforderte Speicherkapazitaeten im Zetta- und Yottabytebereich.

Das diese Speicherkapazitaeten bei der NSA oder einem der anderen
Geheimdienste zur Verfuegung stehen schliesse ich aus. Ich kann mir
das nicht vorstellen. Meiner Ansicht nach koennen die Geheimdienste
die gigantischen Datenstroeme nur mitlesen und selektiv auswerten.

Informatiker und Hardwarespezialisten duerfen mich gerne mit Belegen
davon uberzeugen falls ich einem fatalen technischen Irrtum unterliege.

Wie wäre es denn hiermit:

33 Billiarden Rechenschritte - pro Sekunde! In einer chinesischen Militäruniversität steht der leistungsfähigste Supercomputer auf dem Planeten. Er kann atomare Kettenreaktionen berechnen.

China hat den schnellsten Computer der Welt gebaut. Wie aus der aktuellen Liste der leistungsfähigsten Großrechner hervorgeht, plazierten die Chinesen sich mit der Anlage „Tianhe-2“ auf den ersten Platz der am Montag veröffentlichten Liste der „Top 500“ schnellsten Computer. Das System kommt auf eine Rechenleistung von mehr als 33 Billiarden Rechenschritte in einer Sekunde - und wird betrieben von rund 3,2 Millionen Hochleistungsprozessoren. Das entspricht fast der doppelten Leistung der bisherigen Nummer eins der Liste. Mit Chinas großem Sprung nach vorn haben die Amerikaner und Japaner ihre Vormachtstellung bei den leistungsstärksten und schnellsten Rechenanlagen eingebüßt.

http://www.faz.net/aktuell/wirtschaft/netzwirtschaft/rekord-in-fernost-china-baut-den-schnellsten-computer-der-welt-12224947.html

ABAS
13.07.2013, 12:48
Wie wäre es denn hiermit:

33 Billiarden Rechenschritte - pro Sekunde! In einer chinesischen Militäruniversität steht der leistungsfähigste Supercomputer auf dem Planeten. Er kann atomare Kettenreaktionen berechnen.

China hat den schnellsten Computer der Welt gebaut. Wie aus der aktuellen Liste der leistungsfähigsten Großrechner hervorgeht, plazierten die Chinesen sich mit der Anlage „Tianhe-2“ auf den ersten Platz der am Montag veröffentlichten Liste der „Top 500“ schnellsten Computer. Das System kommt auf eine Rechenleistung von mehr als 33 Billiarden Rechenschritte in einer Sekunde - und wird betrieben von rund 3,2 Millionen Hochleistungsprozessoren. Das entspricht fast der doppelten Leistung der bisherigen Nummer eins der Liste. Mit Chinas großem Sprung nach vorn haben die Amerikaner und Japaner ihre Vormachtstellung bei den leistungsstärksten und schnellsten Rechenanlagen eingebüßt.

http://www.faz.net/aktuell/wirtschaft/netzwirtschaft/rekord-in-fernost-china-baut-den-schnellsten-computer-der-welt-12224947.html



Das ist der Stand fuer Juni 2013 und es stimmt! Wobei aber dieser Superrechner
auch nicht auf mehr als 35 PetaByte Datenspeicher zugreifen kann, und damit
noch unter dem Prototypen von IBM aus den Jahre 2011 liegt der ueber einen
Speicher von 120 PetaByte verfuegte indem 200.000 konventionelle Festplatten
zusammengeschaltet wurden. Die Rechenleistung ist nicht das Problem sondern
die Speicherkapazitaet. Die NSA und CIA haben mit ihren angeblich entwickelten
Rechnern im "Zeta- und YotaByte Bereich" die Welt verarscht! So wie ich das sehe
braechen schon im ExaByte Bereich seitens des gigantischen Energiebedarfes und
auch der extrem aufwendigen Kuehlung die Stromnetze in den USA zusammen.
Amerika ist genausowenig das Land ueberlegener Speicher- und Rechenleistung
als es das " Land of the Free " ist.

Die Amis waren, sind und bleiben Pusher, Poser und Papiertiger mit Allmachtsfantasie
und einem manischen Kontroll- bzw. Unterdrueckungszwang gegenueber allen anderen
Voelkern und Regierung auf der Welt!

Die angebliche globale Totalueberwachung durch NSA und CIA ist wahrscheinlich
genau so gefaket wie die Mondland! Dazu passt jetzt musikalische Begleitung! :haha:


http://www.youtube.com/watch?v=4NAM3rIBG5k&feature=player_embedded

Candymaker
13.07.2013, 13:47
Das diese Speicherkapazitaeten bei der NSA oder einem der anderen
Geheimdienste zur Verfuegung stehen schliesse ich aus. Ich kann mir
das nicht vorstellen. Meiner Ansicht nach koennen die Geheimdienste
die gigantischen Datenstroeme nur mitlesen und selektiv auswerten.


Wie kommst du darauf, dass du mit relativ beschränktem Wissen, schlussfolgern kannst, ob etwas möglich ist oder nicht. Snowden hat bereits gesagt, dass die Metadaten für die NSA bedeutend wertvoller sind, als der Inhalt. Und das System speichert natürlich nicht alles, sondern es wählt automatisch aus nach Präferenzen, wodurch die Datenmenge ggf. auf speicherbare Mengen sinkt. Ausserdem sind die Amis verrückt, guck dir mal an, wieviele Billionen die für den militärisch-industriellen Komplex verfeuern. Kauf mal für 1 Billion USD Festplatten... die offiziellen Informationen, die die an die Öffentlichkeit geben entsprechen ganz sicher der Wahrheit! :D

BRDDR_geschaedigter
13.07.2013, 14:19
Wie kommst du darauf, dass du mit relativ beschränktem Wissen, schlussfolgern kannst, ob etwas möglich ist oder nicht. Snowden hat bereits gesagt, dass die Metadaten für die NSA bedeutend wertvoller sind, als der Inhalt. Und das System speichert natürlich nicht alles, sondern es wählt automatisch aus nach Präferenzen, wodurch die Datenmenge ggf. auf speicherbare Mengen sinkt. Ausserdem sind die Amis verrückt, guck dir mal an, wieviele Billionen die für den militärisch-industriellen Komplex verfeuern. Kauf mal für 1 Billion USD Festplatten... die offiziellen Informationen, die die an die Öffentlichkeit geben entsprechen ganz sicher der Wahrheit! :D

Das Militär ist mindestens 15 Jahre technologisch vorraus.

Deshalb ist es z.B. unsinnig von jetzigen Festplatten auszugehen.

Candymaker
13.07.2013, 14:22
Das Militär ist mindestens 15 Jahre technologisch vorraus.

Deshalb ist es z.B. unsinnig von jetzigen Festplatten auszugehen.

Dass die seit Jahrzehnten gezielt Technologien und Patente, sowie deren Erfinder verschwinden lassen, dürfte bekannt sein... freie Energie gibt es schon seit fast 100 Jahren, nur war es nie beabsichtigt, eine "kostenlose" Energieinfrastruktur zu schaffen.

Alles was man macht, muss darauf abzielen, die Leute abhängig zu halten und sie "abzuschröpfen"... wie Vieh im Stall...

Candymaker
13.07.2013, 14:27
http://www.youtube.com/watch?v=4NAM3rIBG5k&feature=player_embedded

Mann!!! Dieser Song hats dir aber wirklich angetan... wie oft hast du das jetzt schon hier gepostet? 1000 mal?!

ABAS
13.07.2013, 14:42
Das Militär ist mindestens 15 Jahre technologisch vorraus.

Deshalb ist es z.B. unsinnig von jetzigen Festplatten auszugehen.

Das gilt schon lange nicht mehr fuer die USA! Deshalb muessen die
Amis offenbar auch wohl zwanghaft "Window Dressing" betreiben
und ueber angebliche " Geheimnisverraeter " in die Welt lancieren
was sie angeblich so alles koennen!

"Yes, we can!" :fizeig:

ABAS
13.07.2013, 14:45
Mann!!! Dieser Song hats dir aber wirklich angetan... wie oft hast du das jetzt schon hier gepostet? 1000 mal?!

Gute "Feindpropaganda" lebt auch von der Wiederholung und Nachhaltigkeit! :D

Senator74
13.07.2013, 14:53
Gute "Feindpropaganda" lebt auch von der Wiederholung und Nachhaltigkeit! :D

Sickerstrategie...kennt man sonst eher bei Witzen, die in slow motion ihre Wirkung entfalten!!:D:schreck:

Grenzer
13.07.2013, 19:11
Die angebliche globale Totalueberwachung durch NSA und CIA ist wahrscheinlich
genau so gefaket wie die Mondland! ]

Nimm mir bitte nicht meinen Glauben an die Mondlandung ,- die war echt !

Konnte ja vorher keiner wissen,- das da oben Wind weht..... :D

ABAS
13.07.2013, 19:17
Nimm mir bitte nicht meinen Glauben an die Mondlandung ,- die war echt !

Konnte ja vorher keiner wissen,- das da oben Wind weht..... :D


Die Amerikaner waren nicht nur auf dem Mond sondern sie kontrollieren auch
bereits die Sonne. Demnaechst muessen allen Menschen auf der Welt die das
Licht der Sonne nutzen wollen und SUN Lizenzen an Monsanto bezahlen die sich
dann die gigantischen Profite zur Haelfte mit der NSA und der CIA aufteilen.

Das Geheimnis der totalen Beherrschung der Sonne durch die Amerikaner soll
ein Whistleblower Names Will Sundown demnaechst in die Medien lancieren.

Amerika ist wunderbar! :fizeig: