AWS CERTIFIED SOLUTIONS ARCHITECT ASSOCIATE
Lernen Sie und bereiten Sie sich auf die Associate-Level-Prüfung zum AWS Certified Solutions Architect (SAA-C02) vor - eine der gefragtesten Zertifizierungen der Branche.
Ryan Richman
Copyright © 2021
Alle Rechte vorbehalten.
Copyright © 2020 by Ryan Richman.
Alle Rechte vorbehalten. Kein Teil dieses Buches darf ohne schriftliche Genehmigung des Autors in irgendeiner Form oder mit irgendwelchen Mitteln, elektronisch oder mechanisch, einschließlich Fotokopie, Aufzeichnung oder durch Informationsspeicher- und -abrufsystem, reproduziert oder übertragen werden.
Editing by Ryan Richman
Einführung
Es besteht kein Zweifel, dass sich Cloud Computing zu einem der populärsten Themen im Computing entwickelt. Kleine und große Organisationen verlagern ihre Anwendungen und Infrastruktur in die Cloud. Es kommen immer neue Modelle von Cloud-Diensten auf, und die Cloud-Service-Anbieter beeilen sich, den Kunden neue Funktionen und Dienste anzubieten, um ihnen bei der Lösung ihrer Probleme zu helfen. Trotz des Aufkommens neuer Anbieter und Servicemodelle sind die AWS-Services von Amazon weiterhin der unangefochtene Marktführer im Cloud Computing.
Gegenwärtig ist AWS für den größten Teil des Cloud-Sektors zuständig, da Amazon mit der Einführung seines Produkts Elastic Compute Cloud (EC2) und Simple Storage Service (S3) im Jahr 2006 als Erster den Begriff "Cloud Computing" verbreitete. Die AWS-Zertifizierung hilft IT-Personen wie Ihnen beim Aufbau von Zuverlässigkeit und Verlässlichkeit, indem sie unsere CloudComputing-Erfahrungen mit branchenweit anerkannten Zeugnissen und Methoden zur Unterscheidung qualifizierter Personen oder Organisationen nachweist.
Da AWS das führende Cloud-Business-System ist, sind AWS-Zertifikate auf dem Markt sehr gefragt. Viele IT-Personen streben danach, AWS-zertifiziert zu sein. Ein Zertifikat zu haben, gibt Ihnen ein sicheres Gefühl, wenn Sie den Job wechseln oder sich beruflich weiterentwickeln möchten. AWS bietet mehrere Zertifizierungsoptionen, die für Sie oder Ihr Unternehmen geeignet sind.
Ehrlich gesagt, ist die AWS-Zertifizierungsprüfung nicht das Schwierigste, was Sie jemals machen werden. Die Hauptschwierigkeit bei dieser Zertifizierung ist die Menge an Informationen, die aufgenommen werden muss, um die Prüfung
zu bestehen. Jede AWS-Zertifizierung, die sich auf eine bestimmte Domain (ein Feld in AWS) und die Erstellung einer Domain bezieht, wird mit mehreren Services verwaltet. Wenn Sie also zum Beispiel die AWS Solution Architect Associate-Zertifizierung bestehen möchten, dann ist es notwendig, alle Services zu kennen, die im Verhältnis zum Wissen über den Service erforderlich sind. Alle Bereiche haben primäre und sekundäre Services, daher sollten Sie einige Services mit allen wichtigen Funktionen in der Tiefe kennen und ein Grundverständnis der sekundären Services haben.
Am 23. März 2020 hat AWS eine neue Version der Prüfung zum AWS Certified Solutions Architect-Associated veröffentlicht. Es handelt sich um eine große Änderung, was sich auch daran zeigt, dass AWS den ungewöhnlichen Schritt unternommen hat, einen neuen Prüfungscode zu erstellen, anstatt ein stilles Update durchzuführen. Die bisherige 2019er AWS Solutions Associate Architect, SAA-C01, wurde auf die neue 2020er Version SAA-C02 aktualisiert.
Die SAA-C02-Prüfung ist eine fortgeschrittene webbasierte Prüfung zum Solutions Architect. IT-Profis, die nach einem sofortigen Anstieg ihres Beschäftigungsniveaus suchen, können die AWS Certified Solutions ArchitectAssociate-Zertifizierung erwerben, die weltweit von zahlreichen renommierten IT-Unternehmen anerkannt wird.
Als IT-Experte können Sie Ihre praktischen Fähigkeiten in Bezug auf den Betrieb und die Funktionalität von AWS Web Server-Lösungen erfolgreich validieren. Diese technische Prüfung prüft auch AWS-Serverlösungen mit zugehörigen Technologien und Services. Die AWS SSA-C02-Prüfung ist fortgeschritten und erfordert eine hochprofessionelle Vorbereitung, um den Erfolg zu gewährleisten. Die SAA-C02-Fragen beziehen sich auf verschiedene Themen, darunter Design, Planung, Produkte und Services im Zusammenhang mit AWS Server-Lösungen.
Es gibt 65 Antworten auf SAA-C02 Multiple-Choice-Fragen, und die Kandidaten haben 130 Minuten Zeit, um die Prüfung abzuschließen. Gemäß einer Richtlinie des Anbieters wird den Kandidaten unter keinen Umständen zusätzliche Zeit gewährt, um die Wettbewerbsfähigkeit der Prüfung zu erhalten. Daher müssen Sie Ihre Zeitmanagement-Fähigkeiten trainieren, wenn Sie in der Prüfung erfolgreich sein wollen. Die erforderliche Mindestpunktzahl beträgt 720 von 1000 Punkten.
Dieses Buch konzentriert sich darauf, wie Sie die SAA-C02-Prüfung erfolgreich bestehen können. Ihr Ziel sollte es sein, mit einer fokussierten Denkweise zu beginnen, zu lesen und die Prüfungsfragen zu üben. Sie kennen den Satz "Wissen ist nur potenzielle Macht". In ähnlicher Weise werden Zertifizierungen Ihrer Karriere einen potenziellen Schub geben. Sie können Türen öffnen, aber es liegt an Ihnen, die Möglichkeiten zu nutzen.
Einführung in AWS
Es gibt mehrere verschiedene Cloud-Computing-Unternehmen da draußen. Dennoch wird sich dieses Buch ausschließlich auf Amazon Web Services konzentrieren - das spezielle Cloud-Computing-Programm und die Produkte des riesigen Online-Einzelhandelsmarktplatzes. Auch wenn Amazon als ein einziger Ort begonnen hat, an dem man fast alles kaufen kann, was es im Internet gibt, hat das Unternehmen seine Reichweite inzwischen erweitert und umfasst nun auch Musik, Lebensmittel und sogar Webdienste.
Was ist AWS?
Wie Sie vielleicht schon vermutet haben, ist AWS eine Cloud-ComputingPlattform, die mehrere verschiedene Programme anbietet. Sie ist umfassend, mit über 100 verschiedenen Programmen, die für Sie nützlich sein können. Dieses Buch konzentriert sich auf einige der gebräuchlichsten, die in drei Hauptkategorien eingeteilt werden: wesentliche Produkte, weitgehend optionale Produkte und spezielle Produkte für sehr spezifische Anwendungen.
Insgesamt gibt es bei AWS mehrere Einsatzmöglichkeiten, die für Sie relevant sein könnten. Mit AWS als Ihrem Cloud Computing-Anbieter können Sie sicher sein, dass Sie über die notwendigen Tools für verschiedene internetbasierte Zwecke verfügen, wie z. B:
• Hosten einer Website
• Freigeben von Medien, wie z. B. Videos, Bilder oder Musik
• Hosten einer Anwendung
• Speichern und Sichern von wichtigen Daten
• Verteilung von Medien
• Soziale Netzwerke
• Nutzung einer Suchmaschine
• Einen sicheren Raum zum Testen und Entwickeln von Programmen haben.
Natürlich gibt es auch andere Verwendungsmöglichkeiten für diese von AWS angebotenen Programme. Im Jahr 2019, zum Zeitpunkt des Schreibens dieses Buches, nutzten mehrere namhafte Unternehmen AWS. Haben Sie in letzter Zeit Netflix genutzt? Es nutzt AWS, ebenso wie Instagram, Etsy, Dropbox, Pinterest und einige andere. Wenn AWS für diese namhaften Unternehmen gut genug ist, sollten Ihre Bedenken schwinden - denn wenn diese Unternehmen, die die Menschen kennen, lieben und regelmäßig nutzen, es alle nutzen, muss es gut sein.
Warum AWS verwenden?
Wenn Sie derzeit noch nicht überzeugt sind, warum Sie AWS nutzen sollten, sollten Sie bedenken, dass diese Dienste mehrere Vorteile und Nutzen bieten. Durch die Nutzung von AWS ermöglichen Sie die Verwendung bereits bekannter Produkte - Betriebssysteme, Datenbanken und mehr können beibehalten werden. Darüber hinaus ist es aber auch kosteneffizient. Sie müssen weder weiterhin für ein Programm bezahlen, das Sie nicht mehr nutzen, noch müssen Sie Unmengen an Geld ausgeben, um Lizenzen für eine Software zu kaufen, die Sie nur sehr kurz benötigen. Sie werden auch weitere Einsparungen sehen, einfach weil Sie das Geld für Rechenzentren und die massiven Kosten, die mit dem Strom, der Hardware, der Software und der Wartung einhergehen, nicht ausgeben müssen.
Denn Ihre Daten werden alle in einer Cloud gesichert, auf die Sie mit einem Mausklick zugreifen können, was zu schnelleren Verarbeitungszeiten führt, ohne die zusätzlichen Kosten für die Wartung von Spitzenhardware. Sie werden auch in der Lage sein, Ihre internen Systeme zu standardisieren, selbst wenn Ihre Abteilungen oder Büros zu weit voneinander entfernt sind, um eine interne Datenbank zu verwenden, an die alle angeschlossen sind. Das bedeutet, dass Sie Menschen auf der anderen Seite der Welt auf Ihre Informationen zugreifen lassen können - über das Internet. Das bedeutet, dass Sie Informationen, Rechnungen, Verwaltung und vieles mehr zentralisieren und standardisieren können. Darüber hinaus können Sie sich für programme und -pakete entscheiden, so dass Sie bei Bedarf zusätzliche Leistungen in Anspruch nehmen können, ohne einen Aufpreis für Hilfe zu zahlen, die Sie vielleicht nie benötigen.
AWS selbst hat mehrere verschiedene Services, die in verschiedene Kategorien fallen. Dazu gehören die folgenden:
AWS selbst hat mehrere verschiedene Services, die in verschiedene Kategorien fallen. Dazu gehören die folgenden:
• Analytik: Programme, die es ermöglichen, Daten zu verarbeiten und zu interpretieren, um eine Analyse zu ermöglichen, entweder im kleinen oder im großen Maßstab.
• Anwendungsdienste: Programme, die die grundlegenden Anwendungsfunktionen, sowie die Erstellung und Verwaltung von Apps ermöglichen.
• Künstliche Intelligenz: Programme, die die Erstellung, Verwaltung und Speicherung von KIs ermöglichen, die in der Lage sind, Gesichter, Sprachen und mehr zu lernen und zu erkennen.
• Erweiterte und virtuelle Realität: Programme, die hochwertige Virtual-RealityProgramme und -Erlebnisse ermöglichen, die veröffentlicht werden können, um 3D-Karten und -Szenen zu erstellen.
• Geschäftliche Produktivität: Programme, die bei geschäftlichen Funktionen helfen, z. B. beim Speichern von Dokumenten, E-Mails, Videokonferenzen und mehr.
• Rechnen: Programme, die für die Berechnung und Ausführung von Funktionen
über die Cloud entwickelt wurden.
• Kundenbindung: Programme, die es einem Unternehmen ermöglichen, kostengünstig Massen-E-Mails an Kunden zu versenden, Benutzerstatistiken zu erhalten und einen cloudbasierten Kundenservice zu ermöglichen.
• Datenbank-Dienste: Programme, die für die Unterbringung von Daten konzipiert sind, die regelmäßig abgerufen und abgerufen werden und daher schneller verfügbar sein müssen als ein Backup eines Programms.
• Desktop- und App-Streaming: P rogramme, die den Zugriff auf einen RemoteDesktop ermöglichen, d. h. man kann von jedem Computer, der über eine Internetverbindung mit dem Server verbunden ist, auf denselben Computer und Desktop zugreifen oder beliebige Desktop-Anwendungen innerhalb eines Webbrowsers nutzen.
• Entwickler-Tools: Programme, die eine sichere Umgebung bieten, in der mit Codes experimentiert und diese sicher und privat gespeichert werden können. Sie ermöglichen das Entwickeln, Testen und Speichern von Codes in allen Entwicklungsstadien sowie das Debuggen des Codes.
• Spiele-Entwicklung: Programme, die das Erstellen und Hosten von Spielservern ermöglichen, die skaliert werden können, ohne dass das Spiel jemals heruntergefahren werden muss.
• Internet der Dinge: Programme, die die Steuerung von Geräten ermöglichen, die alle miteinander verbunden sind - zum Beispiel der Zugriff auf Ihr Thermostat von Ihrem Telefon aus, um es fernzusteuern.
• Management-Dienste: Programme, die die Verwaltung aller anderen AWSProdukte ermöglichen, um sie zu steuern und anzuzeigen.
• Migration: Dienste, die die Übertragung von Daten zwischen der Cloud und Ihrem eigenen Rechenzentrum vor Ort ermöglichen.
• Mobile Dienste: Programme und Services für die Gestaltung von mobilen Diensten und Apps sowie die Verwaltung von Online- und Offline-Funktionen.
• Speicher: Programme, die es ermöglichen, große Datenmengen zu speichern, entweder als Backups, die nicht häufig angefasst werden, oder in leichter zugänglichen Formaten.
• Sicherheit: Verschiedene Programme zum Schutz und zur Verteidigung Ihrer Daten und Programme, zum Schutz vor DDoS, Hijacking und Exploits.
Wie Sie sehen können, würden mehrere verschiedene Programme AWS für so ziemlich jede Person nützlich machen, die einen Prozess erstellen muss, der für
alles funktioniert. Wenn Sie einen Bedarf haben, besteht eine ziemlich gute Chance, dass AWS genau das richtige Programm für Sie hat.
Wesentliche AWS-Produkte
AWS gilt als unverzichtbar - dies sind die Grundlagen für Ihr Cloud Computing, mit denen Sie ohne große Probleme loslegen und arbeiten können. Dies sind die einfachsten Produkte, die Sie benötigen, um Ihre Cloud mit so wenig Kosten wie möglich zu erstellen. Wenn Sie diese Programme nutzen, haben Sie alles, was Sie brauchen, ohne zusätzlichen Schnickschnack, den Sie vielleicht nicht brauchen. Die wichtigsten Funktionen, aber Sie werden ein vertieftes Verständnis dafür bekommen. Diese Dienste und Produkte umfassen:
• Amazon EC2: Dies erstellt Ihre Serverkonfiguration und hostet sie für Sie.
• Amazon S3: Dies ermöglicht die Speicherung und Bewegung von Daten.
• Elastic Load Balancing: Dies ermöglicht einen skalierbaren Lastausgleich, um sicherzustellen, dass Sie die Server nutzen, ohne einen von ihnen zu überlasten.
• CloudFront: Damit werden die Daten global ausgeliefert.
• Elastic Block Store: Dies ermöglicht die Verwaltung von Geschwindigkeiten.
• Amazon Route 53: Damit werden alle DNS-Routing-Dienste abgewickelt.
• Cloudwatch: Ermöglicht die Verwaltung und Überwachung der genutzten Ressourcen, so dass Sie alles innerhalb Ihrer AWS-Produkte und -Komponenten sehen können.
Optionale AWS-Produkte
Optionale AWS-Produkte können Ihren Prozess der Nutzung von AWS zur Erstellung Ihrer eigenen Server und Cloud-Computing-Services erleichtern, sind aber nicht unbedingt erforderlich. Sie können Ihr Cloud-System mit diesen Produkten erweitern, wenn es für Sie notwendig ist. Wie bei den wesentlichen Produkten sehen Sie hier eine kurze Übersicht der Produkte:
• Lambda: Ermöglicht es, die zugrunde liegende AWS-Infrastruktur zu verwalten und zu optimieren, sodass sich Entwickler nur darauf konzentrieren müssen, ihren Code funktionsfähig zu machen, anstatt auch das Cloud-System zu optimieren
• AWS Konfig: Ermöglicht die Verwaltung der Infrastruktur, so dass Sie sicherstellen können, dass sie sicher ist
• Elastic Beanstalk: Ermöglicht die Erstellung und Skalierung von Web-Apps, um Latenz zu vermeiden
• CloudTrail: Ermöglicht die Prüfung und Überwachung von Informationen
• Amazon EFS: Ermöglicht die Verwaltung von Dateien, die je nach Bedarf wachsen und schrumpfen, um sicherzustellen, dass sie über den erforderlichen Speicherplatz verfügen
Spezielle AWS-Produkte
Manchmal reichen die zuvor aufgeführten Anwendungen für Sie nicht aus manchmal brauchen Sie einfach etwas, das speziell auf Ihre Bedürfnisse zugeschnitten ist. Hier kommt diese Kategorie von Anwendungen ins Spiel. Die dritte Produktkategorie, die von AWS angeboten wird, sind die Special Purpose AWS-Apps, die eine speziellere Nutzung ermöglichen, mit denen Sie MedienStreaming verwalten, verfolgen können, wer auf Ihre Server zugreift, und vieles mehr. Dies sind unglaublich spezifische Tools in Bezug auf die Art und Weise, wie sie verwendet werden können, dennoch ist es wichtig, sie zu verstehen:
• Kinesis: Drei Tools (Kinesis Firehose, Kinesis Analytics und Kinesis Streams) ermöglichen die Abstimmung und Verwaltung des multimedialen Datenflusses (Video, Audio, Bild) das Laden und die Analyse von Daten, die gestreamt werden.
• VPC Flow: Dieses Tool ermöglicht die Protokollierung des IP-Verkehrs, so dass Sie detaillierte Informationen und Aufzeichnungen erhalten, die es Ihnen ermöglichen, zu verstehen, wer zu einem bestimmten Zeitpunkt auf welche Teile der Cloud-Server zugreift.
• DynamoDB: Dies ist eine NoSQL-Datenbank, die vollständig von AWS verwaltet wird und flexibel genug ist, um für mobile Anwendungen oder Spiele verwendet zu werden.
AWS-Grundlagen
Amazon bietet dem Verbraucher heute praktisch alles. Mit einem einfachen verbalen Befehl an Alexa oder mit einem Klick können Sie viele Dinge in Ihrem Zuhause in ein paar Tagen oder sogar am selben Tag erhalten. Amazon bietet auch Cloud-Dienste und -Produkte über seine Plattform Amazon Web Services an. Von der Bereitstellung von Inhalten bis hin zur Datenbankmigration ist AWS zu einer zentralen Anlaufstelle für viele Unternehmen geworden, die nach Lösungen suchen, die ihnen helfen, ihre Organisationen und Geschäfte effizienter zu führen.
AWS ist in verschiedene Dienste unterteilt, die je nach den Bedürfnissen des Benutzers unterschiedlich konfiguriert werden können. Benutzer müssen in der Lage sein, Konfigurationseinstellungen und individuelle Serverzuweisungen für einen AWS-Service einzusehen. Mehr als hundert Services bilden das Portfolio von Amazons Webservices, darunter IT, Anwendungsentwicklung, Infrastrukturmanagement, Datenbanken und Sicherheit.
Dies bezieht sich nur auf das Netzwerk, nicht auf die Berechtigungen.
- Öffentliches Internet: Amazon Web Service ist eine öffentliche CloudPlattform, die mit dem öffentlichen Internet verbunden ist. Sie befindet sich nicht unbedingt im öffentlichen Internet, aber in dessen Nähe.
- AWS Öffentliche Zone: Ist mit dem öffentlichen Internet verbunden. S3 Bucket befindet sich im öffentlichen Bereich; nicht alle Services sind es. Nur weil Sie
einem öffentlichen Service beitreten, bedeutet das nicht, dass Sie die Erlaubnis haben, auf ihn zuzugreifen.
- AWS Private Zone: Direkte Konnektivität zwischen der öffentlichen Cloud und der AWS Private Zone ist nicht erlaubt, es sei denn, sie ist für diesen Service konfiguriert. Dies geschieht, indem man Teil des privaten Service ist und ihn in den öffentlichen Bereich von AWS projiziert, der es dem öffentlichen Internet erlaubt, ausgehende und eingehende Verbindungen herzustellen.
AWS Globale Infrastruktur
Regionen
Die AWS-Region ist ein Gebiet auf der Welt, das Sie für eine vollständige Bereitstellung der AWS-Infrastruktur ausgewählt haben. Bereiche wie Länder oder Staaten umfassen:
- Peking
- Ohio
- Kalifornien
- Singapur
- Paris
- London
AWS kann Regionen nur mit der Geschwindigkeit bereitstellen, die Ihre Planung zulässt. Regionen sind oft nicht in der Nähe ihrer Kunden.
AWS Edge Standorte
Lokale Verteilungspunkte. Dies ist sehr hilfreich für Dienste wie Netflix, damit sie Daten näher am Kunden speichern können, um eine niedrige Latenz und Hochgeschwindigkeitsübertragungen zu ermöglichen. Wenn ein Kunde auf die Daten von Brisbane zugreifen möchte, werden die Daten über einen in Brisbane gehosteten Edge-Standort für die Region Sydney übertragen.
AAWS-Verwaltung
Die Regionen sind mit Hochgeschwindigkeitsnetzen verbunden. Einige Dienste wie EC2 müssen in einer Region ausgewählt werden. Einige Dienste sind global, wie IAM. Die drei Vorteile der Region:
• - Geografische Trennung: Dies ist bei Naturkatastrophen nützlich und bietet einen isolierten Fehlerbereich. Die Regionen sind zu 100 % isoliert.
• - Geopolitische Trennung: Unterschiedliche Gesetze verändern die Art des Zugriffs. Die Stabilität gegenüber politischen Ereignissen.
• - Standortkontrolle: Optimieren Sie Ihre Architektur auf Leistung und duplizieren Sie die Infrastruktur an den Punkten, die den Kunden am nächsten sind.
Regionen und AZ
Regionsname: Sydney (Asien-Pazifik) Regionscode: ap-southeast-2
AWS stellt 2-6 AZ pro Region bereit. AZs sind isolierte Rechen-, Speicher-, Netzwerk-, Strom- und Strukturbereiche. Die Komponenten können die Last und den Widerstand über mehrere Zonen verteilen. AZs sind über redundante Hochgeschwindigkeitsnetzwerke miteinander verbunden.
Service Ausfallsicherheit
• Global resilient: IAM oder Route 53 - es gibt keine Möglichkeit, sie zu senken. Die Daten werden in mehreren Bereichen repliziert.
• Ausfallsichere Region: Wird in jeder Region als separater Dienst betrieben. Die Daten werden in der Regel über mehrere AZs in dieser Region repliziert.
• Ausfallsicherer AZ: Wird von einem einzigen AZ betrieben. Die Hardware kann in einer AZ ausfallen, und der Dienst kann aufgrund redundanter Ausrüstung weiter funktionieren, aber Sie sollten sich nicht darauf verlassen.
Standard AWS VPC
AWS VPC steht für das virtuelle private Netzwerk innerhalb des amazon web service. Ein VPC liegt innerhalb eines Kontos und einer Region und ist damit auf regionaler Ebene ausfallsicher. Eine VPC ist isoliert und privat, bis anders entschieden wird, was normalerweise eine Standard-VPC pro Region ist. Sie können viele benutzerdefinierte VPCs haben, die standardmäßig alle privat sind.
Standard-VPC-Daten
VPC CIDR - Legt die Start- und Endintervalle für VPC fest. Die IP-CIDR einer Standard-VPC ist immer: 172.31.0.0/16. Sie ist so konfiguriert, dass sie standardmäßig ein Subnetz auf jedem AZ in der Region hat. Den Subnetzen wird ein Abschnitt von IP-Bereichen für den Standarddienst zugewiesen. Vermeiden Sie im Allgemeinen die Verwendung der Standard-VPC in einer Region, da sie nicht flexibel ist. Die Standard-VPC ist groß, weil sie den Bereich /16 verwendet. Ein Subnetz ist kleiner als /20, je höher die /Zahl, desto kleiner die Gruppe.
EC2 - Elastic Compute Cloud
EC2 ist der Standard-Computing-Service von AWS. Er bietet Zugriff auf virtuelle Maschinen, die Instanzen genannt werden.
IaaS
Das Consumer-Laufwerk ist eine Instanz der EC2-Instanz, die zum Booten in einem einzelnen VPC-Subnetz konfiguriert ist. Verwenden Sie standardmäßig den privaten Dienst; der öffentliche Zugriff muss jedoch konfiguriert werden. Die VPC muss den öffentlichen Zugriff unterstützen. Wenn Sie mit einer benutzerdefinierten VPC unterstützt werden, müssen Sie das Netzwerk selbst verwalten. Die EC2 wird in einer AZ verteilt; wenn diese ausfällt, fällt die Instanz aus. Unterschiedliche Größen und Kapazitäten nutzen die On-DemandAbrechnung pro Sekunde, und Sie zahlen nur für das, was Sie verbrauchen. Last für den Betrieb der Instanz, Arbeitsspeicher, U und Speicher. Zusätzliche Gebühren für jegliche kommerzielle Software, die mit der Instanz verteilt wird. Elastic Block Storage oder lokaler Speicher On-Host-Preise basierend auf:
• Prozessor
• Speicher
• Speicher
• Netzwerke.
Laufender Zustand
Wird von allen vier Kategorien geladen:
• Ausführung auf einem physischen Host unter Verwendung der U.
• Speicherverbrauch, auch ohne Verarbeitung.
• Das Betriebssystem wird auf dem zugewiesenen Datenträger gespeichert.
• Das Netzwerk ist immer bereit, Informationen zu übertragen.
Zustand anhalten
• Wird nur durch EBS-Speicher belastet:
• U-Ressourcen werden nicht verbraucht.
• Der Speicher wird nicht verwendet.
• Das Netzwerk ist nicht in Betrieb.
• Der Instanz wird Speicher für das Betriebssystem zugewiesen.
Beendeter Zustand
No fees, remove the disc and avoid all future charges:
AMI (server image)
Das AMI kann zum Erstellen von Instanzen oder zum Erstellen aus einer Instanz verwendet werden. AMIs in einer Region sind in anderen Regionen nicht verfügbar. Dies enthält:
• Berechtigungen: Steuern Sie, welche Konten das AMI verwenden können und welche nicht.
• Publikum: Jeder kann es starten.
• Besitzer: Nur der Besitzer kann es zum Erstellen neuer Instanzen verwenden.
• Explizit: Der Eigentümer gewährt den Zugriff auf das AMI für bestimmte AWS-Konten.
• Root-Volumen: Enthält das Boot-Volume.
• Block Device Mapping: Verbindet die Volumes, die das AMI hat und wie sie dem Betriebssystem präsentiert werden. Legt fest, welches Volume ein Datenvolume und welches ein Boot-Volume ist.
AMI-Typen umfassen:
• AWS Market AMI
• Amazon AMI Schnellstart
• Gemeinschaftliches AMI
• Privates AMI.
EC2-Anbindung
Zugriff auf die Instanz mit einem SSH-Schlüsselpaar. Privater Schlüssel: auf dem lokalen Computer gespeichert, um die Verbindung zu starten. Öffentlicher Schlüssel: AWS fügt diesen Schlüssel in die Instanz ein.
• Windows mit Remote Desktop Protocol (RDP), Port 3389
• Linux SSH-Protokoll, Port 22.
S3—Default Storage Service
Die globale Speicherplattform funktioniert von allen Regionen aus und ist ein öffentlicher Dienst. Sie können von überall aus dem Internet mit einer unbegrenzten Anzahl von Benutzern zugreifen. Bei S3 handelt es sich um eine Objektdatei, nicht um eine Datei oder einen Block von Dateien. Ein S3-Bucket kann nicht gemountet werden.
Ein Objekt kann als eine Datei gesehen werden; sie bestehen aus zwei Hauptkomponenten:
• Objektschlüssel: Name der Datei in einem Bucket.
• Wert: Inhalt oder Daten des Objekts.
• Andere Komponenten:
• Versionskennung
• Zugriffskontrolle
• Metadaten
• Unter-Ressourcen.
Buckets
• Buckets werden in einer bestimmten AWS-Region erstellt; die Daten haben eine primäre Residenzregion und verlassen diese Region nicht, es sei denn, dies wird angegeben.
• Explosionsradius = Region.
• Unbegrenzte Anzahl von Objekten.
• Der Name ist global eindeutig.
Alle Objekte werden im Bucket auf der gleichen Ebene gespeichert. Wenn der Objektname mit einem Schrägstrich beginnt, wie z. B. /old/Koala1.jpg, wird er in der Benutzeroberfläche als Ordner dargestellt.
CloudFormation-Grundlagen
Vorlagen können zum Ändern der Infrastruktur, zum Erstellen, Löschen und Aktualisieren der Infrastruktur verwendet werden. Sobald ein Modell erstellt ist, erstellt AWS einen Stack. Dies ist eine lebende und aktive Darstellung eines Modells. Ein Modell kann eine unendliche Anzahl von Stacks erstellen. CF erstellt die entsprechenden physischen Ressourcen in Ihrem AWS-Konto für jede logische Ressource im Stack. Es liegt an den Cloud-Formationen, die logischen und physischen Ressourcen synchron zu halten. Ein Modell kann aktualisiert werden und dann zur Aktualisierung desselben Stacks verwendet werden.
CloudWatch-Grundlagen
Dieser sammelt und verwaltet Betriebsdaten in Ihrem Auftrag. Mit drei Produkten in einem:
• Metrik: Daten im Zusammenhang mit AWS-Produkten, Anwendungen und lokalen Lösungen.
• Datensätze: Sammlung, Überwachung.
• Ereignisse: Ereigniszentrum.
Wenn ein AWS-Service etwas tut, können CloudWatch-Ereignisse eine andere Aktion ausführen oder ein Ereignis erzeugen, um etwas zu einer bestimmten Tageszeit oder Woche zu tun.
Namespace
Dies ist der Container für Überwachungsdaten. Der Name kann beliebig sein, solange er nicht AWS/service wie AWS/EC2 lautet. Dies wird für alle metrischen Daten für diesen Dienst verwendet.
Metrisch
Zeitlich geordnete Datenpunktsätze wie z. B.:
- U-Nutzung
- Ausgang/Eingang Netzwerk
- IO-Festplatte
Dies bezieht sich nicht auf einen bestimmten Server. Dies könnte von verschiedenen Servern stammen. Jedes Mal, wenn die U-Auslastung gemeldet wird, wird der Datenpunkt
Zeitstempel = 2020-12-05
Wert = 98.3
Die Dimensionen der separaten Datenpunkte für verschiedene Dinge oder
Perspektiven innerhalb derselben Metrik
Alarme
Der Alarm hat zwei Zustände: "Alarm" oder "ok". Der Zustand kann eine Aktion oder SNS senden. Der dritte Zustand kann "unzureichende Daten" gewesen sein.
Amazon Web Services (AWS) Produkte und Preisgestaltung
Die Liste der AWS-Güter ist wirklich so groß wie verwirrend. Hier ist, was Sie auf jeden Fall über die wichtigsten AWS-Artikel wissen müssen, einschließlich Amazon EC2 und Preisdetails.
AWS bietet eine Vielzahl von kostengünstigen und skalierbaren CloudInfrastruktur-Optionen. Wenn Sie auf der Suche nach Speicherplatz, Rechenleistung oder Online-Datenbanken sind, ist es einfach, Cloud-Services zu finden, die Ihre IT-Anforderungen erleichtern.
Es gibt so viele AWS-Angebote, aber sie können überwältigend sein. Hier ist die zusammengestellte Liste einiger der am häufigsten genutzten Services und ihre einfachen Preisangaben, um die Dinge zu vereinfachen. Besuchen Sie die Amazon-Website, um einen umfassenderen Blick auf AWS-Waren zu erhalten.
Die Amazon Elastic Compute Cloud (Amazon EC2)
Die EC2-Instanz ist ein virtueller Server, der aus einem Betriebssystem, Anwendungsdateien und Konfigurationseinstellungen besteht, die in einem Amazon Machine Image (AMI) gebündelt sind. EC2-Instanzen werden von einem AMI gestartet, das als Vorlage für jeden Server dient. Sie können die Anzahl der Ressourcen, die Sie verwenden möchten, entweder hoch- oder herunterfahren, wenn sich Ihre Anforderungen ändern. Server werden auch als Instanzen bezeichnet, auf denen Anwendungen laufen. Vereinfacht ausgedrückt ist eine Instanz wie ein kleiner Teil eines Computers, der über ein Netzwerk, ein Betriebssystem und Speicher verfügt, die virtuell sind. Sie können mehrere Instanzen in einer einzigen Maschine haben.
Mit Amazon EC2 haben Sie die vollständige Kontrolle über die Ressourcen und können sie in der Computerumgebung ausführen. Innerhalb von Minuten können Sie neue Instanzen wiederherstellen und booten, so dass Sie die Kapazität je nach Bedarf hoch- oder runterskalieren können. Sie zahlen nur für die Kapazität, die Sie benötigen.
Preise: AWS-Neukunden können Elastic Compute Cloud für bis zu siebenhundertfünfzig Stunden pro Monat in einem Jahr kostenlos nutzen. Sie bietet auch On-Demand-Instanzen, die für einen berechneten Wert von mindestens 60 Sekunden pro Stunde oder Sekunde bezahlt werden. Bei zeitlich begrenzten Transaktionen zahlt Amazon für die jeweilige Dauer des Prozesses, wobei sich die Tarife an langfristigen Angebots- und Nachfragemustern orientieren.
Amazon Elastic Container Service (Amazon ECS)
Die modulare Container-Orchestrierungssoftware von Amazon führt DockerContainer und ermöglicht Benutzern den Betrieb und die Skalierung von AWSContainer-Anwendungen. Amazon ECS dupliziert ContainerOrchestrierungstools, Handhabung, Skalierung von Clustern virtueller Maschinen und Server-Scheduling.
Preis: Amazon unterteilt Elastic Container Service (ECS) in zwei Preisstrategien: Fargate Launch Type und den Elastic Container Service oder EC2 Launch Type. Fargate ist bereits preislich auf die Hauptressourcen U und Speicher bezogen. Der Nutzer fordert containerisierte Anwendungen an und rundet vom Ziehen des Containers bis zur Erledigung der Aufgabe auf die nächste Sekunde auf, wobei mindestens eine Minute berechnet wird.
Es gibt keine zusätzliche Gebühr für EC2. Amazon berechnet den Nutzern nur die Dienste, die sie aufbauen und speichern, während das Programm läuft.
Amazon Easy Storage Service (Amazon S3)
Amazon Easy Storage Service oder S3 ist ein objektbasierter Speicherdienst von AWS, der flexibel, schnell und sicher ist. Tausende von Unternehmen und Firmen nutzen S3, um große Datenmengen, Anwendungen, Archive usw. zu speichern.
Preisgestaltung: Newbie-Benutzer können kostenlos 5 Gigabyte S3-Speicher, zwanzigtausend Get-Anfragen, zweitausend Put-Anfragen, 15 GB Datentransfer und 15 GB Datentransfer pro Monat in einem Jahr erhalten
Amazon Aurora
Amazon Aurora ist eine kostengünstige relationale Open-Source-Datenbank, die vollständig von RDS verwaltet wird. Sie ist eine Art RDS-Erweiterung, die mit MySQL und PostgreSQL kompatibel ist. Sie ist fünfmal schneller als StandardMySQL-Datenbanken mit schnellerer Wiederherstellungszeit und minimierter Replikationsverzögerung. Sie bietet Sicherheit, Fehlertoleranz und die Haltbarkeit kommerzieller Datenbanken zu 10 % der Kosten.
Preisgestaltung: Basierend auf anderen AWS-Produkten wird Aurora nach dem "Pay-as-you-go"-Prinzip ohne Vorlaufkosten angeboten, so Amazon. Beispielsweise variieren die Preise für Speicher und E/A, Backup-Speicher, Backtracking und Datenübertragungsraten je nach Region und Edition von MySQL und PostgreSQL.
Amazon CloudFront
Amazon CloudFront ist einer der Content Delivery Network (CDN)-Services mit mehreren regionalen Edge-Standorten. Er stellt Webinhalte von Edge-Standorten aus bereit, mit dem einzigen Ziel, die Latenz zu minimieren und den Durchsatz zu maximieren. Das Ergebnis sind schnellere Seitenladezeiten für webbasierte Anwendungen mit weniger Latenz.
Preis: Es ist ein Pay-as-you-go-System. Die Preise beginnen bei 0,085 $ pro übertragenem Gigabyte für die ersten 10 TB pro Monat, je nach Standort. Reservierte Preise oder Verfügbarkeit sind auf Anfrage erhältlich.
Amazon CloudWatch
Amazon Cloud Watch ist ein Verwaltungsservice, der zur Überwachung der von Ihnen verwendeten Ressourcen und Anwendungen dient, indem er Metriken/Protokolle sammelt, die die Leistungsmessung definieren.
Auf der CloudWatch-Startseite werden die Metriken für jeden von Ihnen verwendeten AWS-Service angezeigt. Sie können auch ein benutzerdefiniertes Dashboard erstellen, das die Metriken Ihrer benutzerdefinierten Anwendungen anzeigt. Dieser Service ist für Entwickler, IT-Manager und Ingenieure von Vorteil, da er die Diagnose und Fehlerbehebung erleichtert, um sicherzustellen, dass die Anwendungen reibungslos funktionieren.
Sie haben die Möglichkeit, Alarme zu erstellen, die Sie immer dann benachrichtigen, wenn Änderungen an den Ressourcen vorgenommen werden, die Sie überwachen, wenn ein Schwellenwert überschritten wird. Sie können zum Beispiel den Status der U-Auslastung überprüfen, und anhand dieser Informationen können Sie entscheiden, ob Sie zusätzliche Ressourcen laden sollten oder nicht. Sie können zehn benutzerdefinierte Metriken und Alarme kostenlos verwenden. Zusätzliche Metriken sind kostenpflichtig.
Preisgestaltung: Amazon teilt die Preise für Cloud Watch in zwei Teile auf: kostenlos und kostenpflichtig. AWS-Produkte wie Amazon Elastic Compute Cloud oder EC2, Kinesis, Amazon Easy Storage Service oder Amazon S3 können automatisch Berichte an Cloud Watch übermitteln. Allerdings gibt es Einschränkungen bei Berichten, Reportings, Dashboards, Alarmen und Protokollen, und benutzerdefinierte Ereignisse werden entfernt.
Amazon DynamoDB
Wie andere Datenbanksysteme auch, ist DynamoDB ein NoSQLDatenbankdienst, der von Amazon angeboten wird. Zweifelsohne ist die Datenbank der Baustein für jede Organisation, ob klein oder groß. Traditionelle Datenbanken sind nicht mehr die einzige Lösung für die Probleme, da sich unsere Anforderungen jeden Tag ändern und die Arbeitslast steigt. Daher kann eine Datenbank-Engine wie DynamoDB die Herausforderungen der Organisationen in hohem Maße bewältigen.
Im Gegensatz zu einer relationalen Datenbank arbeitet Amazon DynamoDB mit der Schlüssel-Wert-Paar-Methode zum Hinzufügen, Löschen, Aktualisieren und Abrufen von Daten. Ein Primärschlüssel wird benötigt, um die verschiedenen Datensätze zu unterscheiden, aber es wird kein Schema benötigt, um eine Tabelle zu erstellen. DynamoDB bietet eine hohe Leistung, wenn Sie die Ressourcen skalieren möchten.
Preis: Der Preis ist tier-basiert. Amazon erhebt Gebühren für das Lesen oder Schreiben von Anwendungsdaten, während der andere Benutzer mit dem InDemand-Kapazitätsmodus von DynamoDB keine geplante Leistung angeben muss. Durch den gegebenen Kapazitätsmodus von DynamoDB berechnet Amazon Lese-/Schreibvorgänge pro Sekunde basierend auf den geplanten Anforderungen des Benutzers. Benutzer können ihre Kapazität durch Autoskalierung ändern.
Amazon Elastic Block Store (Amazon EBS)
EBS-Volumes sind hochzuverlässige Speicher-Volumes, die jeder gerade aktiven Instanz innerhalb der gleichen Verfügbarkeitszone zugewiesen werden.
Preis: IAM ist eine Funktion von AWS, die von Amazon als Teil des Kontos kostenlos zur Verfügung gestellt wird.
AWS Lambda
AWS Lambda existiert, um Code auszuführen, ohne den Server zu verwalten, auf dem Sie versuchen, ihn auszuführen. Wenn Sie dies nutzen, zahlen Sie für die Millisekunden der Rechenzeit. Effektiv ermöglicht es Ihnen, AWSAnwendungen auszuführen, ohne sich um die Infrastruktur kümmern zu müssen. Sie müssen sich nicht um die Verwaltung und Überwachung von U, Speicherplatz oder Arbeitsspeicher kümmern, da Sie Lambda so konfigurieren können, dass es innerhalb der festgelegten Parameter arbeitet. Sie zahlen nur für die Zeit, in der Lambda Ihre Anwendung verarbeitet.
Preisgestaltung: Amazon berechnet 100 Millisekunden der Code-Ausführung und die Anzahl der Trigger-Anfragen.
Amazon Virtual Private Cloud (Amazon VPC)
Kunden können einen logisch getrennten AWS-Cloud-Teil über Amazon VPC haben. Amazon VPC (Virtual Private Cloud) ist die Netzwerkebene für Amazon EC2, mit der Sie AWS-Ressourcen (Instances) in ein benutzerdefiniertes virtuelles Netzwerk starten können. In einem virtuellen Netzwerk können Sie jeden der von AWS bereitgestellten Dienste nutzen. Sie haben die volle Kontrolle über den Datenverkehr zu und von den Instanzen.
Preisgestaltung: Die Preisgestaltung von Amazon VPC ist in drei Kategorien unterteilt: Die AWS Site-to-Site, die AWS PrivateLink und die NAT Gateway. Die Site-to-Site-Preise beginnen bei $0,05 pro Verbindung und Stunde ($0,048 für die AWS-Regionen Tokio und Osaka-Local). Die Preise für AWS PrivateLink beginnen bei 0,01 $ pro Stunde und 0,01 $ pro übertragenem Gigabyte Daten, wobei die Zahlen von der Region des Kunden abhängen. Amazon legt die Preise für NAT Gateway ab 0,045 $ pro Stunde und ab 0,045 $ pro Gigabyte fest, je nach Region.
Elastic Load Balancing
AWS Elastic Load Balancing ist ein aufgebauter Service, der Arbeitslasten und Netzwerkverkehr gleichmäßig auf Ressourcen wie virtuelle Server verteilt, um Anwendungsausfälle zu verringern und sie leicht verfügbar zu machen. Sie können dem Load Balancer Ressourcen hinzufügen oder entfernen, wenn sich Change your requirements.
AWS offers three levels of Elastic Load Balancing: Software, Networking, and Classic. For Application Load Balancer and Network Load Balancer, s are paid by the hour or partial hour, and Load Balancer capacity units are used by the hour. Amazon charges Classic Load Balancer s for each hour or partial hour of usage and each gigabyte of data transferred.
Elastizität und Skalierbarkeit
Wir werden einen kurzen Überblick über Elastizität und Skalierbarkeit haben, insbesondere bei der Definition performanter Architekturen.
• Bereich 2: Definieren von performanten Architekturen-24%
• Caching anwenden, um die Leistung zu verbessern
Entwerfen Sie Lösungen für Elastizität und Skalierbarkeit.
Für Elastizität können wir einen Elastic Load Balancer verwenden. Wir wissen, dass der Load Balancer verwendet werden kann, um den Datenverkehr auf die zugrunde liegenden EC2-Instanzen zu verteilen.
Für die Skalierbarkeit können Sie eine Auto-Scaling-Gruppe verwenden. Sie können Instanzen in einer Auto-Scaling-Gruppe basierend auf verschiedenen Metriken starten.
Zusätzlich zu den normalen Metriken, wie z. B. U-Auslastung, können Sie auch benutzerdefinierte Metriken für Ihre Cloud Watch definieren. Diese können auch auf der Funktionalität Ihrer Anwendung basieren. Sie können die
Befehlszeilenschnittstelle verwenden, um Ihre eigenen Metriken von Ihrer Anwendung auf Cloud Watch zu veröffentlichen. Darauf basierend können Sie dann Alarme definieren und dann Instanzen in Ihrer Auto-Scaling-Gruppe auslösen.
Richtlinien für automatische Skalierung
Geplante Skalierungsrichtlinie
Aus der Perspektive der Prüfung werden wir die Scheduled Scaling Policy besprechen. Diese wird verwendet, wenn Sie zu einem bestimmten Zeitpunkt hoch- oder herunterskalieren möchten, sie basiert also auf einem Zeitplan.
Anwendungsszenarien:
• Angenommen, Sie haben eine Werbeveranstaltung für Ihre Anwendung und müssen sicherstellen, dass die Infrastruktur vor der Veranstaltung selbst skaliert wird.
• Angenommen, ein Team verwendet eine Anwendung, die auf einer Reihe von Instanzen als Teil einer Auto-Scaling-Gruppe definiert ist. Diese Anwendung erfährt früh am Tag eine starke Auslastung. Dies kann ein Anwendungsszenario sein, wenn die Leute gegen 9 Uhr morgens ins Büro kommen und während dieser Zeit alle diese bestimmte Anwendung nutzen, und dann später im Laufe des Tages wird sie nicht mehr so stark genutzt.
• Um sicherzustellen, dass die Benutzer die beste Erfahrung haben, planen Sie eine Skalierungsrichtlinie, die die Instanzen der Auto-Scaling-Gruppe früh am Morgen erhöht. Dann könnten Sie wahrscheinlich eine weitere dynamische Skalierungsrichtlinie hinzufügen, um sie zu verringern, nachdem die Auslastung gesunken ist.
Dynamic scaling policy
Wir wissen bereits, dass wir unsere Instanzen in unserer Auto-Scaling-Gruppe auf Basis von Metriken skalieren können, die auf den bereits verfügbaren Metriken wie U-Auslastung oder benutzerdefinierten Metriken basieren können.
Abkühlzeitspanne
Was genau ist die Abkühlphase?
Nehmen wir an, Sie haben drei Server, die zunächst von der Auto-ScalingGruppe hochgefahren wurden, und nehmen wir an, dass die Leistung einen Einbruch erleidet, was nun einen Cloud Watch-Alarm um 9.00 Uhr auslöst. Als Teil dieses Alarms fährt die Auto-Skalierung zwei weitere Server hoch, so dass Sie jetzt insgesamt fünf Server haben.
Für diese beiden zusätzlichen Server muss neue Software installiert werden; einige Skripte müssen ausgeführt werden, um sicherzustellen, dass sich diese beiden Server zu den anfänglichen drei Servern gesellen und mit der Annahme der Anfragen beginnen können. Sagen wir, das dauert 10 Minuten, denn wenn Sie neue Instanzen hochskalieren, muss etwas darauf laufen, und es muss Teil dieser Gruppe sein, damit die Anfragen angenommen werden können.
Während dieser Zeit (sagen wir in fünf Minuten), weil die neuen Server noch nicht bereit sind, nehmen Ihre drei Server immer noch eine Belastung auf, und Ihre Cloud-Watch-Alarme wurden ausgelöst; was wird Auto-Skalierung tun?
Bei der automatischen Skalierung werden wieder unnötigerweise neue Server hochgefahren, so dass Sie statt fünf Servern sieben Server haben könnten, und das könnte einige Zeit so weitergehen. Dies bedeutet, dass Sie diesen fünf Servern nicht genug Zeit geben, sich zu beruhigen, und hier kommt die Abkühlzeit ins Spiel.
Sie knönnen diesen Zeitraum erhöhen, um sicherzustellen, dass die Infrastruktur genügend Zeit hat, sich zu beruhigen. Wenn während dieses Zeitraums ein Cloud-Alarm ausgelöst wird, wird er ignoriert - so hat Ihre Infrastruktur genug Zeit, um richtig zu skalieren und Anfragen zu akzeptiere.
SQL Queue Service
Einer der am meisten bewunderten Dienste, die für die Entkopplung verwendet werden, ist der SQL-Queue-Dienst, wenn es um Skalierbarkeit geht. Hier haben Sie Benutzer, die zu einem Front-End-Server gehen könnten. Der Front-EndServer könnte Nachrichten an eine SQS-Warteschlange senden, und dann haben Sie eine Auto-Scaling-Gruppe, die diese Nachrichten entgegennimmt und die erforderlichen Informationen verarbeitet. Sie können die Skalierung der AutoScaling-Gruppe sogar auf der Grundlage der Anzahl der Nachrichten in der Warteschlange auslösen.
Nehmen wir an, die Anzahl der Anfragen steigt, die Länge der Warteschlange nimmt zu und die Anzahl der Server in Ihrer Skalierungsgruppe verarbeitet die Nachrichten nicht in idealer Weise. Dann können Sie die Skalierungsoperation so einstellen, dass die Anzahl der Server auf der Grundlage der SQSWarteschlangenmeldungen erhöht wird.
ElastiCache
ElastiCache wird verwendet, wenn Sie häufig verwendete Daten wie z. B. Abfragen zwischenspeichern möchten.
Anwendungsfall-Szenario:
Falls Sie einen Front-End-Server haben, der mit einem Datenbankserver kommuniziert, oder sagen wir, Sie kommunizieren mit einem Datenbankserver nur über eine Berichtsanwendung. Wenn die Leistung des Datenbankservers sinkt (wegen der gleichen Abfragen, die immer wieder abgefeuert werden), schalten Sie den ElastiCache-Dienst vor die Datenbank.
Durch das Vorschalten des ElastiCache-Dienstes vor die Datenbank werden die am häufigsten verwendeten Datensätze der Abfrage im ElastiCache gespeichert. Diese Datensätze werden dann entweder an Ihre Phantomserver oder direkt an Ihre Benutzer zurückgegeben, ohne die Datenbank selbst zu belasten.
Netzwerk-Architekturen
Wir werden uns für die Prüfung Netzwerkarchitekturen aus der Perspektive eines Architekten ansehen. Ich möchte hier die neu hinzugefügten Ziele der AWS SAA-C02-Prüfung besprechen. Diese Ziele sind die Auswahl von hochleistungsfähigen Netzwerklösungen und der Entwurf von kostenoptimierten Netzwerkarchitekturen für Ihre Arbeitslast. Jetzt können Sie in der Prüfung einige Fragen zum Anwendungsszenario von hochleistungsfähigen Netzwerklösungen erhalten, daher müssen Sie diese Konzepte im Detail verstehen.
Bei der Betrachtung von Netzwerkarchitekturen gibt es drei Arten von Netzwerklösungen für Ihre Arbeitslast. Diese sind flache Netzwerkarchitekturen, segmentierte Netzwerkarchitekturen und hybride Konnektivität. Lassen Sie uns zuerst flache Netzwerkarchitekturen besprechen. In der flachen Netzwerkarchitektur haben Sie also eine einzelne VPC-Architektur, d. h. ein einzelnes Konto in einer einzelnen VPC. So wurde die Virtual Private Cloud entwickelt; Sie wählen eine CIDR für eine VPC und teilen sie in Subnetze und einzelne Availability Zones auf. Dann werden die Subnetze in Routing-Tabellen platziert, wo sie in öffentliche und private Subnetze unterteilt werden. Sie können fünf CIDR-Blöcke an eine VPC anhängen.
In einer einzelnen VPC-Architektur wird also nur ein begrenzter Datentransfer berücksichtigt, es sei denn, Sie haben Abhängigkeiten, die bis zu den AZGrenzen reichen. Sie können sogar mehr als 300.000 IP-Adressen haben, so dass Ihre Workloads zu skalieren beginnen können. Und Sie können auch native Konstrukte in Subnets Route Tables, NACLs und Security Groups aufteilen. Wenn Sie also eine VPC-Architektur haben, in der Sie mehrere Hyper-ScaleKunden haben können, die Hunderttausende von Services wie Microservices innerhalb eines einzigen s in einer einzigen VPC betreiben können, dann ist die Netzwerkarchitektur, die für Sie geeignet ist, die Single-VPC-Architektur.
Sagen wir, Sie haben eine einzelne VPC, die Multi-Tenant ist, und dann müssen Sie sicherstellen, dass einer dieser Tenants nicht alle Ihre Ressourcen verbraucht und nicht mit anderen Benutzern teilt. Es kann also ziemlich schwierig werden, alle in einen Topf zu werfen, wenn es um die Kostenverteilung oder die Durchsetzung von Richtlinien geht. Daher ist die VPC-Freigabe der ideale Ansatz, um eine einzelne VPC mit mehreren Konten zu nutzen. Es verwendet den Amazon Resource Access Manager, um Ihre Subnetze und Ressourcen mit anderen Konten in Ihrer AWS-Organisation zu teilen, wie z. B. das Transit Gateway, Route 53 und die Auflösungsregeln innerhalb Ihrer VPC.
Im Single VPC Multiple s oder Shared VPC-Modell geben Sie also ein Subnetz für Teilnehmer frei, und diese können dann ihre Ressourcen wie EC2Instances oder Datenbanken oder ELBs innerhalb dieser Subnetze, die Ihnen gehören, starten. Dies ist aus Sicht der Prüfung wichtig. Die VPC-Freigabe verfügt über eine kontospezifische Kostenzuweisung, einen einzigen VPC-BlastRadius und ein gemeinsames DNS, aber es gibt eine begrenzte Zugriffskontrolle für die Eigentümer der Anwendungen. Die Richtlinienkontrolle und Isolierung, die das individuelle AWS-Konto bietet, kann auf dieser einzigen VPC-Ebene implementiert werden. Diese Methode der Zentralisierung und Wiederverwendung von VPC-Komponenten reduziert die Kosten für die Verwaltung und Wartung Ihrer Umgebung.
Idealerweise versuchen Benutzer bei diesen Designs, die Kosten zu optimieren, und platzieren sie deshalb in einer einzigen VPC, da sie viele Abhängigkeiten zwischen Arbeitslasten haben. So benötigen Anwender bei einer einzigen VPC keine Medien wie Transit Gateway, VPC-Peering und Private Link für das VPCManagement. Kommen wir nun zur segmentierten Netzwerkarchitektur.
In der segmentierten Netzwerkarchitektur haben wir mehrere Konten in mehreren VPCs. Diese Architektur wird also für große Unternehmen bevorzugt,
die die Grenzen der AWS-Konten kontrollieren und überschreiten können. Diese Architektur ist also erforderlich, wenn Benutzer eine Isolierung zwischen ihren Dev-Tests und Produktions-Workloads wünschen oder ihre Geschäftseinheit und Workload-Kategorie isolieren möchten.
Und ein weiterer Grund, warum es so konzipiert ist, ist die vollständige Isolierung der einzelnen Microservices. Wenn Sie z. B. einen PCI- oder HIPAACompliance-Workload haben, können Sie ihn nutzen oder die Software-Testund Produktionsumgebungen trennen. Sie können auch Ihren Strahlungsradius isolieren, wenn Ihr Workload die VPC und die Kontogrenzen überschreitet. Damit erhalten Sie die verteilten Service-Einschränkungen, die Sie zur Skalierung auf AWS nutzen können.
Aber dieser Ansatz erhöht die Komplexität in Bezug auf die IP-Verwaltung, z. B. welche Art von IP-Bereich oder CIDR weise ich für einen Haufen meiner VPCs zu? Wie kann ich mit vielen anderen VPCs kommunizieren? Am besten wäre es, wenn Sie sich auch Gedanken darüber machen, wie Sie die Zugriffskontrolle zwischen Ressourcen über verschiedene VPCs und IAM- und Netzwerkkonten hinweg handhaben.
Hier kommen also mehrere Muster der VPC-Netzwerkkonnektivität. Erstens haben wir VPC-Peering. Nehmen wir an, Sie wollten alle Ihre VPCs miteinander verbinden. In diesem Fall verwenden Sie VPC Peering, um ein komplettes Kommunikationsnetzwerk zwischen den VPCs zu erstellen. VPC Peering ist einfach einzurichten und hat keine Bandbreitenbeschränkungen. VPC Peering kann für VPCs zwischen denselben Regionen, über Regionen hinweg oder zwischen verschiedenen s aktiviert werden. Aber nehmen wir an, Sie haben vier VPCs, dann müssen Sie sechs Peering-Links mit den vier VPCs einrichten und das Routing für jeden von ihnen genehmigen und konfigurieren. Dies könnte in der Prüfung abgefragt werden.
Wenn Sie mehrere Netzwerke und Infrastrukturen verwalten wollen, können Sie dafür Transit Gateway verwenden. Wenn Sie Hunderte von VPCs und Verbindungen haben, entfällt mit Transit Gateway der zeitaufwändige Prozess, einzelne VPCs durch VPC-Peering miteinander zu verbinden sowie VPN-Tunnel zwischen der Vor-Ort-Anlage und jeder VPC zu erstellen, um die Vor-OrtVerbindung zu ermöglichen. Dabei wird entweder eine VPN-Verbindung oder eine Direct Connect-Verbindung verwendet. Es ist so, als würden Sie versuchen, Ihre Edge-Konnektivität mit AWS zu verschmelzen. Es skaliert standardmäßig bis zu 5.000 VPCs und unterstützt Equal-Cost-Multipath-VPN. Und es erlaubt Ihnen auch Routing-Flexibilität und bietet Ihnen mehrere Routing-Tabellen. Sie müssen den Unterschied zwischen VPC-Peering und Transit-Gateway aus Prüfungssicht kennen.
Schauen wir uns das Konzept von PrivateLink an, das für die Prüfung sehr wichtig ist. Nun muss jede Anwendung über Drei-Wege-T-Handshakes miteinander kommunizieren. PrivateLink ist also speziell für die traditionelle T-Client-Server-Beziehung entwickelt worden, bei der Sie einen Client auf der einen Seite haben und ein Server in einer anderen VPC lebt. Sie erstellen ein Loch in einer anderen VPC, um einen Dienst, der auf einem bestimmten Port und einer IP-Adresse liegt, einer anderen VPC zur Verfügung zu stellen. Dies unterscheidet sich nun vom VPC-Peering und Transit-Gateway, da es nur ein Loch für diesen Dienst stanzt. Es bietet keine Zwei-Wege-Konnektivität für die gesamten VPCs. Dies wird verwendet, weil es die Sichtbarkeit zu und von gemeinsam genutzten Diensten vollständig reduziert. Außerdem unterstützt es die IAM-Richtlinie auf dem Endpunkt selbst und löst die große und komplexe Netzwerkadressübersetzung.
Betrachten wir einen Anwendungsfall, in dem Sie PrivateLink verwenden, um auf Abhängigkeiten vor Ort zuzugreifen, die überlappende IPs haben. In dieser Architektur haben Sie On-Premise-Dienste und Sie haben Cloud-basierte Dienste, und Sie möchten diese Ressourcen gemeinsam nutzen. Eine Option ist die Verwendung eines Mediators oder einer NAT-VPC in diesem Modell, weil Sie damit bidirektionale private Verbindungen einrichten können, um Endpunkte in der Cloud und vor Ort freizugeben. Dabei handelt es sich um eine Art
virtuelle Schnittstelle, die Sie nicht wie einen einzelnen Server oder vielleicht einen Load Balancer on-prem ansteuern.
Die IP-Adresse Ihres Clients in der VPC ist also 10.0.1.15, und Ihr Server vor Ort hat die gleiche IP-Adresse. Hier setzen Sie also PrivateLink in die VPC des Clients. Sie haben einen Network Load Balancer in der Mediator- oder NATVPC, und dieser hat ein IP-Ziel, das über Direct Connect an den On-PremiseDatenbankserver weitergeleitet wird. Wenn der Server die Anfrage erhält, kommt die Anfrage von der IP-Adresse des Mediators.
Der umgekehrte Fall ist, dass ich einen privaten Link im Mediator oder NAT VPC habe, und ich stelle meinen Dienst über einen privaten Link im NLB innerhalb des VPCs selbst aus. Die gleichen IP-Adressen des Client-Servers lösen das NAT-Problem, wie ich bereits erwähnt habe. Sie können die Unähnlichkeit im Diagramm unten sehen:
Wie können Sie nun PrivateLink zur Kostenoptimierung einsetzen? So ist die Zentralisierung von Schnittstellen-VPC-Endpunkten eine der besten Möglichkeiten für die Bereitstellung von PrivateLink zur Kostenoptimierung. Einige Kunden entscheiden sich dafür, PrivateLink-Endpunkte in einer Shared Services-VPC zu hosten, weil dadurch die Kosten für AWS PrivateLinkEndpunkte auf der Grundlage des Datenverkehrsprofils reduziert werden. Datenübertragungskosten, wenn Sie einen Kinesis-Endpunkt haben oder etwas, das viel Bandbreite benötigt. Dann würden Sie den Endpunkt einfach selbst hosten.
Wenn Sie einen PrivateLink erstellen, erstellt der Service eine private gehostete Zone für Sie. Der PrivateLink-Dienst ist Eigentümer dieser privaten gehosteten Zone. Ihnen gehört sie nicht, also können Sie sie nicht mit anderen VPCs verbinden. Daher können die privat gehosteten Endpunkte außerhalb der VPC
nicht angeschlossen werden. Die Kosten für die Datenverarbeitung können sich auch erhöhen, je nachdem, wie die Verbraucher mit einem zentralisierten Endpunkt kommunizieren. Wenn Sie also Kosten reduzieren und Endpunkte privat verbinden möchten, könnte das eine gute Option für Sie sein.
Schauen wir uns nun die hybriden Konnektivitätsmodelle an, die Sie generell für die Prüfung kennen müssen. Das erste ist die AWS Site-to-Site VPNKonnektivität. Die erste Option ist, die Site-to-Site VPN-Verbindung auf einem Transit Gateway zu terminieren. Und dann verteilt Transit Gateway die Konnektivität auf Tausende von VPCs. Das zweite Modell sieht vor, die Site-toSite-VPN-Verbindung auf einem Virtual Private Gateway zu terminieren, das an eine einzelne VPC angeschlossen ist. Die dritte Möglichkeit besteht darin, das VPN auf einer EC2-Instanz zu terminieren, auf der VPN-Software aus dem AWS-Marktplatz läuft. Es wäre besser, wenn Sie das Transit Gateway für Ihre VPN-Terminierung verwenden würden, da es die Verwaltung vereinfacht, indem es die Anzahl der zu verwaltenden VPN-Tunnel und BGP-Sitzungen reduziert. Und es skaliert auch horizontal in Bezug auf den Durchsatz sowie die Skalierung der Anzahl der VPCs.
VPN ist zwar eine gute Option für den Anfang, aber möglicherweise nicht ideal für einen gewissen Produktionsverkehr. Wählen Sie daher AWS Direct Connect, das eine Konnektivität mit hoher Bandbreite zwischen Ihrem Rechenzentrum und AWS bietet. Dies ist alles von hybrider Konnektivität, die in der Prüfung gefragt werden könnte.
Lassen Sie uns einige der Unterschiede zwischen AWS Global Accelerator und CloudFront besprechen. Beide bieten Ihnen das AWS-Backbone-Netzwerk, um die Latenz für Endbenutzer zu verringern. Mit CloudFront müssen Sie nur in einer Region bereitstellen. Außerdem erhalten Sie damit die Möglichkeit des Response Caching und Lambda Edges. Beim Response Caching können Sie statische Assets oder ganze Seiten Ihrer Website in der Nähe der Endbenutzer zwischenspeichern, was sehr praktisch ist. Und mit Lambda-Edges können Sie
kleine Teile der Software in einer Region in der Nähe des Benutzers ausführen. Aus diesem Grund ist CloudFront eine bessere Option, um die Latenz für Endbenutzer zu minimieren, aber dann bietet Ihnen Global Accelerator zwei öffentliche IPs, und deshalb kann es mit jedem DNS-System arbeiten.
Für den Fall, dass Ihre Website in mehr als einer Region bereitgestellt wird, ist es gut, eine Kombination aus CloudFront und Global Accelerator zu verwenden, um Inhalte an Endbenutzer zu liefern und den Datenverkehr zwischen den Regionen zu teilen.
Falls Sie eine API verwenden, die niemals Caching benötigt, dann ist ein globaler Accelerator eine gute Wahl, da kein Caching erforderlich ist. Ein globaler Accelerator kann also Inhalte verteilen und API-Antworten an die Endbenutzer weiterleiten, und er kann auch den Datenverkehr zwischen den Regionen aufteilen. Außerdem verteilt er den Datenverkehr zwischen mehreren Regionen.
AWS-Zertifizierung
AWS bietet Zertifizierungszertifikate für Unternehmen an, die auf ihrer Erfahrung im Clustering basieren. Hier sind einige AWS-Zertifikate:
AWS Certified Practitioner in der Cloud
AWS Cloud Practitioner ist eine notwendige Zertifizierung. Verschaffen Sie sich einen Überblick über die AWS-Cloud-Plattform. Es ist der erste Test für Personen ohne technischen Hintergrund, die ihre AWS-Cloud-Karriere starten möchten. Dieser Test ist einfach mit anderen Prüfungen zu vergleichen, da er kein technisches Wissen wie andere Zertifikate erfordert.
AWS Certified Architect Solution Agent
Es handelt sich um eine stufenbezogene Prüfung und bestimmt die Fähigkeit in Form eines Kandidaten, sein Wissen über die Entwicklung und Implementierung sicherer Anwendungen in der AWS-Technologie nachzuweisen. Die Prüfung ist zeitlich begrenzt. Sie sollten praktische Erfahrungen mit Netzwerkdiensten, Computerspeichern und Datenbanken haben.
Es gibt einen zertifizierten AWS Developer Assistant: Dieses Zertifikat bestätigt die Erfahrung und Effektivität des Bewerbers bei der Entwicklung und Wartung von AWS-Anwendungen. Es handelt sich ebenfalls um eine Prüfung auf mittlerem Niveau, die detaillierte Kenntnisse in mindestens einer Top-LevelProgrammiersprache erfordert.
Agent Sysop der AWS-Zertifizierungsagent
This certification demonstrates your expertise in the implementation, operation, and management of the platform the AWS. It is relatively tricky for previous exams at this level. Experience in acquiring, maintaining, and operating AWS system is required.
AWS zertifizierter professioneller Architekt
Diese Prüfungen bestätigen die fortgeschrittenen technischen Fähigkeiten und das Design von verteilten AWS-Anwendungen. Professionelle Prüfungen sind anspruchsvoll und erfordern 2-3 Jahre Erfahrung in der Entwicklung und Implementierung von Architekturen in der Cloud. Bewerber müssen über eine Partnerzertifizierung eines AWS Solution Architects verfügen.
AWS zertifizierter DevOps Professional Ingenieur
Es ist ein Test, der die technische Fähigkeit eines Kandidaten bestätigt, verteilte Anwendungen auf der Plattform zu verwalten und zu managen - in AWS. Der Kandidat muss mit einem AWS Certified Associate-Mitarbeiter Entwickler oder AWS-Zertifikat--Manager für die Station verbunden sein.
AWS—High Certification Performance
Dieser Test prüft die Fähigkeit des Kandidaten, AWS-ServiceProjektimplementierungsdaten anzuen, die einen Wert darstellen. Es ist ein Test auf die Eignung, die mehr als fünf Jahre Erfahrung in der Datenanalyse erfordert.
Spezialität für fortgeschrittene AWS-zertifizierte Netzwerke
Dies ist eine anspruchsvolle Prüfung, die die Fähigkeit eines Kandidaten bestätigt, integrierte AWS- und hybride Computer-Netzwerkarchitekturen zu entwerfen und zu implementieren. Es erfordert mindestens fünf Jahre praktische Erfahrung in der Implementierung und Planung von Netzwerklösungen. Am besten ist es, einen AWS Certified Cloud Practitioner oder Certified Associate AWS Solutions Architect, AWS Certified Associate Developer oder eine zertifizierte AWS Sysop istration zu haben.
AWS Certified Security Specialty: Diese Prüfung testet das Wissen über die Bereitstellung von AWS-Plattformen durch die Implementierung von Registrierungs-, Überwachungs- und Sicherheitsinfrastrukturen.
Was ist der Vorteil eines AWS-zertifizierten Experten?
Ich freue mich darauf, diese Frage in diesem Artikel zu beantworten, beginnend mit den relevanten Fähigkeiten und Kenntnissen, die ein Architekt für Geschäftsentscheidungen benötigt. Ich empfehle jedem mit umfangreicher praktischer Erfahrung, Cloud-Architekturen in AWS zu entwerfen und zu implementieren.
Rolle des AWS Solution Architects
Basierend auf einigen Stellenbeschreibungen auf der Amazon Jobs Webseite, können wir den Business Solutions Architect als eine Fachkraft beschreiben, die:
• Ermutigen Sie Kunden, die zugrunde liegenden Faktoren ihres Geschäfts zu verstehen, Anwendungsportfolios zu bewerten und robuste und erschwingliche native Cloud-Architekturen zu entwickeln.
• Arbeiten Sie mit Kunden, Vertrieb und anderen Teams zusammen, um skalierbare, flexible und zuverlässige Cloud-Architekturen zu erstellen, die Kundenprobleme lösen.
• Beschleunigen Sie die Implementierung von AWS-Services und steigern Sie den Umsatz für eine breite Palette von Kunden.
• Unterstützen Sie Unternehmen dabei, sich über Best Practices für moderne Cloud-Lösungen zu informieren und bestehende Arbeitslasten in die Cloud zu übertragen.
• Kompatibel mit nachgewiesener Software-/Technologie-Verkaufs- oder Beratungshistorie.
• Er informiert über das AWS-Wertangebot und führt ausführliche Diskussionen über die Architektur.
• Denken Sie strategisch über Aktivitäten, Produkte und technische Fragen nach.
Zertifizierter Lösungsarchitekt
Mit der AWS Solution Architect Professional-Zertifizierung müssen Sie nachweisen, dass Sie über die technischen Kenntnisse und Fähigkeiten verfügen, um AWS-Anwendungen und -Infrastrukturen zu entwerfen, zu implementieren und zu betreiben. Die AWS-Zertifizierungsprüfung bestätigt das fortgeschrittene Wissen und die Erfahrung beim Entwerfen von Anwendungen und verteilten Systemen auf der AWS-Plattform.
Die Auswertung erfolgt in Begriffen wie:
• Entwerfen und implementieren Sie skalierbare, hochverfügbare, fehlerfreie und robuste dynamische AWS-Anwendungen.
• Wählen Sie die geeigneten AWS-Services aus, um anforderungsbasierte Anforderungen zu entwickeln und zu nutzen.
• Lieferung einiger abgestufter Anwendungen, um AWS-Funktionen für das Unternehmen zu entwerfen und zu nutzen.
• Implementierung von Strategien zur Kostenkontrolle.
AWS-Zertifizierungen ermöglichen es Benutzern, ihr Wissen und ihre Fähigkeiten über AWS-Services zu identifizieren. In Vorbereitung auf die Zertifizierungsanforderungen haben Sie auch die Möglichkeit, Ihre Erfahrungen mit AWS-Services zu erweitern.
Prüfen Sie Ihre aktuellen Fähigkeiten und bestimmen Sie, ob das entsprechende Fachwissen Ihre Karriere auf die nächste Stufe bringen kann. Schauen Sie sich die Cloud-Zertifizierung an, und jeder wird auf die Cloud-Plattform wechseln.
Es gibt eine erhebliche Nachfrage nach AWS-Zertifikaten aufgrund der Anzahl von Unternehmen, die in die Cloud wechseln, AWS entwickeln und AWSPartner finden.
Es wird empfohlen, dass Enterprise Solution Architect die richtige AWSZertifizierung haben: AWS Certified Solutions Architect-Professional.
Laut der AWS-Zertifizierungs-Website muss der Pilot Solution über Folgendes verfügen:
• Mindestens zwei Jahre Erfahrung in der Entwicklung und Bereitstellung von Cloud-Architekturen in AWS.
• Fähigkeit, die Anforderungen von Cloud-Anwendungen zu bewerten und architektonische Empfehlungen für die Implementierung, Nutzung und Bereitstellung von AWS-Anwendungen zu geben.
• Leitfaden für architektonische Design-Best-Practices für mehrere Anwendungen, Projekte oder Unternehmen.
AWS-Markt-Nachfrage
Dort ist der AWS Certified Architect Solutions Certified Partner der drittwichtigste Bericht; im Jahr 2009 wurde er bezahlt.
Entsprechende Prüfungen für AWS Certified Solutions Architect bieten Erfahrung in der Entwicklung und Implementierung von skalierbaren Systemen in AWS. Nein, es ist nicht verwunderlich, dass diese Zertifizierung in diesem Jahr an der Spitze der 15 steht, denn die Nachfrage nach qualifizierten und zertifizierten AWS-Architekten für Marktlösungen ist groß.
Es ist nur der erste Schritt, um eine AWS Certified Solutions Architect Zertifizierung zu erhalten. Basierend auf den Antworten auf die diesjährige Preisumfrage, haben sie alle fünf AWS-Zertifikate, die ein durchschnittliches Gehalt von mehr als $ 100.000 (ein Durchschnitt von $ 25.191) bieten.
Laut Quora gibt es mehr als 10.000 zertifizierte Personen, die aufgrund der Popularität der AWS-Plattform die Gehälter der zertifizierten Fachleute erhöhen.
Fünf Vorteile von spezialisiertem Big Data in AWS
1. Umsatzsteigerung dank der AWS Big Data Certification Specialization Professional (für ein langfristiges Ziel von mehr als fünf Jahren)
Jeder in der Datenwissenschaft weiß, dass ein amerikanischer Datenwissenschaftler im Durchschnitt 100.000 Dollar im Jahr verdient. Aber was ist das Gehalt für eine enorme qualifizierte die AWS die Data Specialist Certified, Professional; Halten Sie Menschen in Ihrem Hut. Es ist ein Anfangsgehalt von $ 160.000. Und mit nur zwei Jahren zusätzlicher Erfahrung, kann dieses Gehalt $ 250.000 pro Jahr überschreiten, wenn Sie ein Superstar bei der Arbeit sind. Abhängig von Ihrer Produktivität bei der Arbeit.
2. Das umfangreiche Ökosystem von Amazon mit Tools, Bibliotheken und Produkten
Amazon Web Services hat im Vergleich zu anderen Diensten der Cloud IaaS bei weitem die meisten Produkte und das größte Ökosystem an Geräten. Als exzellenter Datenexperte sind Sie frei in der Wahl Ihrer Karriere. Wollen Sie KI? Interessieren Sie sich für ES3 (Storage) oder Computer mit Hochleistungsservern ohne (AWS Lambda)?
Sie können das Unternehmen wählen, in dem Sie arbeiten. Ich weiß nichts über Sie, aber ich muss über dieses Buch schreiben, und ich bin sehr aufgeregt.
3. Der maximale Bedarf für alle Cloud-Computing-Aufgaben
Wenn erhalten, kündigen ihre AWS-Zertifizierung, dann richtig für professionelle AWS, bei weitem die bedeutendste Nachfrage auf dem Markt! Wegen mehr als der Hälfte der gemischten PC-Unternehmen von IaaS zu AWS. Der Bedarf an AWS-Zertifizierung ist heute höher. Hier ein paar Beispiele: 2019 werden 350.000 Fachleute AWS-Jobs benötigen. 60 % der Cloud-ComputingJobs erfordern AWS-Kenntnisse (natürlich die Hälfte des Marktanteils).
4. Globale Nachfrage in jedem IT-Land
Nicht nur die Vereinigten Staaten suchen nach Spitzenkräften. Es gibt Positionen in England, Frankreich, Australien, Kanada, Indien, China und der EU - in fast allen Ländern werden Computerkenntnisse Sie in einen Experten in der AWS Hände öffnen willkommen.
5. Erschwingliche Preise und freie Zeit zum Erkunden von AWS
Amazon hat aufgrund seines Marktanteils die Kosten senken können. AWS hat kostenlose Services, die jährlich in der Wohnung zu zahlen sind - ein Blick in die Cloud IaaS, völlig kostenlos für ein Jahr. Auch die AWS-Schulungsmaterialien sind günstiger als andere Angebote.
Allgemeine Vorteile
Die AWS-Zertifizierung hat viele Vorteile und kann Ihnen helfen, Ihre AWSLeistung und -Erfahrung zu verbessern. Sie können auch Ihre technischen Fähigkeiten testen.
Hier sind einige der Vorteile der AWS-Zertifizierung:
• Verlässlichkeit: Eine Zertifizierung erhöht nicht nur Ihr Wissen über die Dienste, sondern auch das Vertrauen in Sie. Wenn Sie ein Abonnement erhalten, haben Sie mehr Möglichkeiten.
• Referenz: Ob Sie ein Profi oder ein Anfänger sind, das Zeichen "AWS Certified" bedeutet, dass Sie viele Möglichkeiten in AWS-bezogenen Projekten haben.
• Die Bezahlung ist höher: Die AWS-Zertifizierung ist keine Garantie für ein höheres Gehalt, aber AWS ist die Mehrheit bei den Zahlungszertifizierungen in den Vereinigten Staaten.
• Weiterbildung: Bei einer AWS-Zertifizierung können die Fähigkeiten verbessert werden, die Risiken bei der Durchführung der entsprechenden Arbeiten haben und das AMC-Projekt reduzieren.
• Hilfe bei der Gründung eines Unternehmens: Arbeitgeber wollen AWS-
zertifizierte Mitarbeiter in ein Unternehmen aufnehmen. Es ist eines der Integrationskriterien auf der obersten Ebene des AWS-Partnernetzwerks.
Zusätzliche Vorteile
Wenn Sie Teil eines AWS-Partnernetzwerks sind, erhalten Sie Schulungszuschüsse, Darlehen für die Nutzung von AWS, kommerzielle Unterstützung usw.
Hier sind einige zusätzliche Vorteile von AWS:
• Es wird eine hohe Nachfrage auf dem Markt geben: Da AWS die bisher gültigste Zertifizierung ist, ist AWS auf dem IT-Markt sehr gefragt. Wenn Sie sich die Wachstumsrate von AWS ansehen, eröffnet Ihnen die Zertifizierung neue Möglichkeiten und erhöht Ihre Chancen auf Arbeit.
• Notwendige Arbeitsanforderungen: Mit dem Ausbau der Cloud-Dienste im ITMarkt hat sich Amazon stark entwickelt. Amazon bietet Cloud-Dienste mit einem hohen Maß an Sicherheit und Flexibilität an. Der Bedarf an vielen Spezialisten ist gestiegen und wird weiter wachsen. Wenn Sie zertifiziert sind, können Sie sich von anderen abheben, und Sie werden zweifellos stark davon profitieren.
• Es hilft Ihnen, ein neues Erfahrungsniveau zu erreichen: Sie müssen neue Fähigkeiten entwickeln, um mit den neuesten technologischen Entwicklungen Schritt zu halten. Mit der AWS-Zertifizierung erlangen Sie dieses Wissen. Die meisten AWS-Zertifizierungszeichen in Echtzeit erfordern Übung und Ausbildung, um die Prüfungen zu bestehen. Das Bestehen von Prüfungen und Zertifikaten wird zweifellos Ihre Felderfahrung widerspiegeln und Ihnen helfen,
bessere Noten zu erhalten.
Einführung in Amazon EC2 und Amazon EBS
Skalierbare, anbare Rechenkapazität wird mit der Amazon AWS-CloudInfrastruktur bereitgestellt. Die EC2-Instanz ist ein virtueller Server, der aus einem Betriebssystem, Anwendungsdateien und Konfigurationseinstellungen besteht, die in einem Amazon Machine Image (AMI) gebündelt sind. EC2Instances werden von einem AMI gestartet, das als Vorlage für jeden Server dient.
Typen von Amazon EC2-Instanzen
Welche Art von Rechenleistung Sie benötigen, hängt von der Art Ihrer Anwendungen ab. Instanzen werden in fünf Typen eingeteilt, die wie folgt lauten:
1. Allzweck-Instanzen
Wenn Sie neu bei AWS sind, werden allgemeine Instances häufig von den neuen Benutzern verwendet. Sie haben eine große Funktionalität und das zu einem vernünftigen Preis. Sie werden verwendet, um Webserver zu betreiben, Spiele und mobile Anwendungen zu entwickeln und Unternehmensanwendungen zu nutzen.
A1
Jeder Instanztyp hat eine Sammlung von Instanzen, die für die Handhabung verschiedener Anwendungen zuständig sind. Eine A1-Instanz ist eine Allzweckinstanz, die für die Ausführung von Anwendungen der ARMArchitektur wie Java und Python geeignet ist.
M5
M5-Instanzen laufen auf Intel Xeon-Prozessoren. Sie sind deutlich leistungsfähiger als A1 in Bezug auf Speicher, Rechenleistung und Performance. Sie werden für die Entwicklung von Anwendungen und Testumgebungen verwendet. Außerdem unterstützen sie Intel AVX-512, eine Reihe von Anweisungen, die Verschlüsselungsalgorithmen ausführen, um Sicherheit zu bieten und gleichzeitig die Leistung optimal zu halten.
2. Rechenoptimierte Instanz
C5
C5-Instanzen gehören zur nächsten Generation der rechenoptimierten Familie, die sich ideal für die Ausführung rechenintensiver Workloads wie Stapelverarbeitung, maschinelles Lernen, Spiele und High-Level-Computing eignet. Die C5-Instanzen laufen auf Intel Xeon-Prozessoren und sollen schneller
sein als frühere Generationen.
3. Speicheroptimierte Instanzen
R5 and R5a
R5 und R5a sind speicherintensive Instanzen, die von Anwendungen verwendet werden, die ausreichend Speicher benötigen, wie z. B. große Datenbanken, Datenanalysen und andere Anwendungen. Sie können aus über 48 einzigartigen Instanzen mit verschiedenen Prozessor-, Netzwerk- und Speicheroptionen wählen. R5 unterstützt Anwendungen, die hohe Speicheranforderungen haben, um die Leistung zu maximieren und die Latenz zu reduzieren. Sie sind auf dem AWS Nitro-System konzipiert, das den Instances Speicherressourcen und Rechenleistung zur Verfügung stellt.
X1 and X1e
X1- und X1e-Instanzen sind für große speicherintensive Anwendungen wie Presto, SAP HANA und andere Unternehmensanwendungen konzipiert. Sie werden von Intel Xeon E7-8880-Prozessoren angetrieben und berechnen niedrige Kosten pro GB Ram.
4. Beschleunigte Computing-Instanzen
Accelerated-Computing-Instanzen verwenden Hardware-Beschleuniger und grafische Verarbeitungseinheiten, um Gleitkommaberechnungen und Grafikverarbeitung durchzuführen. Es sind verschiedene Instanzen unter diesem Typ verfügbar:
P3
P3 ist eine GPU-Instanz der neuen Generation, die in den Bereichen maschinelles Lernen, High-Level-Computing, Fluiddynamik sowie Analyse- und Erkennungsanwendungen eingesetzt wird.
G3
G3-Instanz ist ideal für die Ausführung hochleistungsfähiger grafischer Anwendungen für 3D-Rendering, Visualisierungen, Codierung und Streaming. Sie wird von NVIDIA GRID betrieben.
F1
F1-Instanzen verwenden Field-Programmable Gate Arrays (FPGAs), um die Hardware-Beschleunigung für Ihre Workloads anzuen. Durch den Einsatz von FPGAs können Sie die Beschleunigung von Anwendungen nach oben und unten skalieren. Sie werden bei der Lösung von geschäftlichen und technischen Problemen eingesetzt, die eine hohe Rechenleistung, hohe Bandbreite und leistungsstarke Netzwerkfunktionen erfordern. F1 ist auch nützlich für die
Ausführung von Echtzeit-Bildverarbeitungsanwendungen und die Durchführung von Big Data-Analysen.
5. Speicheroptimierte Instanzen
Speicheroptimierte Instanzen sind für Anwendungen konzipiert, die einen hohen sequentiellen Lese-/Schreibzugriff auf große, im Speicher vorhandene Datensätze benötigen.
H1 and D2
H1- und D2-Instanzen werden von hochfrequenten Intel Xeon-Prozessoren angetrieben, die einen hohen Datendurchsatz zum niedrigsten Preis bieten. Sie werden für verteilte Systeme, Data-Warehouse-Anwendungen und Datenverarbeitung eingesetzt.
I3
I3-Instances bieten einen nichtflüchtigen Speicher, der für einen hohen sequenziellen Zugriff, einen hohen Durchsatz und das AWS-Nitro-System für den Zugriff auf Ressourcen ausgelegt ist. Es wird für transaktionale Datenbanken von Unternehmen, Data Warehousing und Analysen verwendet.
Merkmale der Instanz
Amazon EC2 verfügt über mehrere Funktionen, die die Bereitstellung, Verwaltung und Skalierung Ihrer Anwendungen ermöglichen.
Burstable Performance-Instanzen
Amazon EC2 bietet zwei Arten von Instanzen an: feste Performance-Instanzen bzw. Burstable Performance-Instanzen. Um zwischen den beiden zu unterscheiden, hat die Performance-Instanz eine konstante U-Leistung, während die Burstable-Performance-Instanz eine bestimmte Basislinie hat. Wenn die Arbeitslast ansteigt, erhöht die burstable Instanz die U-Leistung; daher burstet sie.
U-Guthaben kümmern sich um die U-Bursts einer bestimmten Instanz. Wenn Sie eine Instanz erstellen, erhalten Sie ein U-Guthaben. Die Anzahl der U-Credits ändert sich pro Stunde, abhängig vom Typ der Instanz. Wenn Sie z. B. eine bestimmte Instanz 10 Minuten lang mit 30 % U-Leistung verwenden, verbrauchen Sie 3 (0,3x10) U-Credits. Wenn Sie keine U-Credits mehr haben, arbeiten die Instanzen mit einer Basisleistung von etwa 30 % ULeistung.
Es gibt Anwendungen wie Datenbanken, Server und Entwicklerumgebungen, die keine hohe U-Leistung benötigen; sie nutzen jedoch die Vorteile schneller Us, wann immer sie diese benötigen. Wenn Sie eine hohe U-Leistung für Ihre Anwendungen benötigen, ist es besser, Instanzen mit fester Leistung zu wählen
Speicher-Optionen
Amazon EC2 bietet Ihnen die Möglichkeit, den Typ von mehreren Speichern zu wählen, den Sie für Ihre Instances benötigen. Amazon EC2 führte Elastic Block Storage (EBS) ein, einen Speicher auf Blockebene, der persistente Daten speichert, die in Verbindung mit Amazon EC2 verwendet werden. Der Vorteil der Verwendung von EBS ist, dass Ihre Daten auf dem System nicht verloren gehen, wenn Sie den Server/die Instanz herunterfahren. Auf der anderen Seite hält der lokale Speicher die Daten nicht persistent auf dem System. Es gibt verschiedene EBS-Volume-Typen, die von AWS angeboten werden und auf die wir später in diesem Abschnitt eingehen werden.
Einführung in Amazon Elastic Block Store (Amazon EBS)
Amazon EBS ist eine Art Blockspeicher-Volume, das für Amazon EC2 entwickelt wurde und einer Festplatte ähnlich ist. Die EBS-Volumes sind wie unformatierte und rohe Blockgeräte, auf denen Sie beliebige Daten speichern können. Diese Volumes können als Geräte auf Ihren Instanzen gemountet werden. Sie haben die Möglichkeit, so viele Volumes wie Sie möchten auf einer bestimmten Instanz zu mounten. Allerdings kann jedes Volume jeweils an eine Instanz angehängt werden. Es ist möglich, die Konfiguration des Volumes zu ändern, das an eine bestimmte Instanz angehängt ist.
EBS-Volumes sind hochzuverlässige Speicher-Volumes, die jeder gerade aktiven Instanz innerhalb derselben Verfügbarkeitszone zugewiesen sind.
Angenommen, Sie möchten schnell auf Daten zugreifen und möchten die Datenpersistenz sicherstellen. In diesem Fall sollten Sie sich für Amazon EBS entscheiden, da es sich ideal für den Einsatz für Datenbanken, Anwendungen, Analysen und Dateisysteme eignet.
Sie können zwischen vier verschiedenen Volume-Typen wählen und dabei berücksichtigen, wo Sie es einsetzen möchten. Mit einer niedrigen Latenz können Sie eine hohe Leistung bei schweren Arbeitslasten wie Data Warehouse und Big Data erreichen. Amazon EBS ist für datenbankbezogene Anwendungen gedacht, die häufig Lese- und Schreibvorgänge durchführen.
Typen von EBS-Volumes
1. General-Purpose SSD Volume (GP2)
Allzweck-SSD-Volumen ist das Standardvolumen, das EC2 wählt, das kostengünstig ist und gleichzeitig eine hohe Leistung bietet. SSD steht für ein Solid-State-Laufwerk, das schneller ist als eine Festplatte. Die Leistung wird in Form von IOPS (input/output operations per second) gemessen, was sich darauf bezieht, wie viele I/O-Operationen pro Sekunde durchgeführt werden können. Der Wert für die Allzweck-SS liegt bei 3 IOPS, für längere Zeiträume bei einem Burst-Wert von 3000 IOPS. Sie hat einen Durchsatz von 160 MB/s und kann 10.000 IOPS unterstützen. Die Volume-Größe variiert von 1 GiB bis 16 TiB.
E/A-Kredite und Burst-Leistung
Die Leistung von GP2 hängt von der Volume-Größe ab, die die Basisleistung definiert und wie schnell es E/A-Credits sammelt. Größere Volumes haben eine hohe Basisleistung und eine schnelle Ansammlung von E/A-Guthaben. E/AGuthaben bezeichnen die verfügbare Bandbreite, die GP für Burst-E/A benötigt, wenn eine höhere Basisleistung erforderlich ist. Je höher die E/A-Gutschriften sind, desto mehr Zeit wird für das Bursting über die Basisleistung hinaus benötigt, und desto besser funktioniert es.
2. Bereitgestelltes IOPS-SSD-Volumen
Eines der schnellsten und teuersten EBS-Volumes, das speziell für hochintensive Anwendungen wie Datenbanken konzipiert ist. Die Volume-Größe liegt bei etwa 4 GiB-16TiB, und der Bereich der IOPS liegt bei minimal 100 IOPS und maximal 32.000 IOPS. Im Gegensatz zu gp2 verwendet io1 eine konsistente IOPS-Rate, wenn Sie das Volume erstellen, und so liefert Amazon EBS die beabsichtigte IOPS-Leistung.
3. Durchsatzoptimiertes Festplattenvolumen (st1)
Die durchsatzoptimierte HDD unterscheidet sich von anderen Typen von EBSVolumes. Sie arbeitet in Bezug auf den Durchsatz anstelle von IOPS. Der relativ kostengünstige Magnetspeicher ist für große Arbeitslasten wie Data Warehouses, Protokollverarbeitung und Big Data geeignet. Er unterstützt Daten, auf die häufig zugegriffen werden kann. Dieser Volume-Typ eignet sich für große Arbeitslasten, die sequenzielle E/A erfordern.
Burst-Leistung und Durchsatzguthaben
St1 verwendet für die Leistung das gleiche Burst-Bucket-Modell wie gp2. Die Volume-Größe entscheidet über den Basisdurchsatz des Volumes, d. h., wann das Volume Guthaben sammelt. Größere Volumes haben einen höheren BurstDurchsatz und eine höhere Baseline. Je höher die Credits, desto länger die BurstZeit.
4. Kaltes HDD (sc1) Volumen
Cold HDD ist ein weiterer kostengünstiger Magnetspeicher, der in Bezug auf den Durchsatz und nicht auf die IOPS arbeitet. Sie hat eine niedrigere Durchsatzgrenze als st1 und eignet sich für große, selten zugreifende und sequentielle Arbeitslasten wie z. B. Dateiserver.
Burst-Leistung und Durchsatzguthaben
Sc1 verwendet für die Leistung das gleiche Burst-Bucket-Modell wie gp2. Die Volume-Größe entscheidet über den Basisdurchsatz des Volumes, d. h., wann das Volume Guthaben sammelt. Größere Volumes haben einen höheren BurstDurchsatz und eine höhere Baseline. Je höher die Credits, desto länger die BurstZeit.
5. Magnetisch (Standard) Volumen
Magnetisches Volume ist ein magnetischer Speicherblock der alten Generation, der Daten speichern kann, auf die nur selten zugegriffen wird. Die Größe des Volumens beträgt etwa 1 TiB, und es hat einen Durchsatz von 100 MB/s
Leistung von EBS
Sobald die neuen EBS-Volumes verfügbar sind, arbeiten sie mit maximaler Leistung und müssen nicht initialisiert werden.
Volumes, die aus Snapshots wiederhergestellt wurden, müssen ihre Speicherblöcke aus Amazon S3 entfernt und dem Volume hinzugefügt werden, damit Sie darauf zugreifen können. Dies nimmt Zeit in Anspruch und führt zu einer erheblichen Verzögerung bei den E/A-Operationen, wenn auf die einzelnen Blöcke zugegriffen wird.
Die Leistung steigt, sobald die Blöcke heruntergeladen und an das Volume angehängt worden sind. Angenommen, Sie möchten eine hohe Latenz verhindern, die die Gesamtgeschwindigkeit beeinträchtigt. In diesem Fall können Sie schnelle Snapshots zur Wiederherstellung aktivieren, um sicherzustellen, dass die erstellten EBS-Volumes die maximale Leistung liefern..
Einsatz/Orchestrierung
API Gateway
API-Gateway ist eine Plattform zum Veröffentlichen und Verwalten von APIs, die zum Aufrufen (Proxy) verschiedener AWS-Backend-Services verwendet werden. Außerdem fügt es internetbasierten mobilen und Unternehmensanwendungen Funktionalität hinzu. Es handelt sich um einen verwalteten Service, der eine automatische Skalierung der Kapazität, eine kosteneffiziente Nutzung und die Integration mit Identity and Access Management (IAM) bietet. Im Folgenden werden die Hauptmerkmale der APIGateway-Architektur zusammengefasst:
• Proxy zu Backend-AWS-Services
• Verarbeitet API-Aufrufe
• Läuft nicht innerhalb der VPC
• Unterstützt nur öffentliche Endpunkte (HTTPS)
• Berechnet nur die empfangenen API-Aufrufe und den Datentransfer nach außen.
API-Gateway-Architektur
API-Gateway-Endpunkte sind Webserver, AWS-Services oder LambdaFunktionen. Die API integriert einen Vorgang mit einer HTTP-Methode (GET, PUT, POST) in einen Endpunkt. Es gibt keine Unterstützung für unverschlüsselte Endpunkte, da sie sich außerhalb der AWS-Cloud befinden. Im Folgenden finden Sie einige zusätzliche Vorteile des API-Gateways:
• Automatischer DDoS-Schutz (SYN-Floods)
• Caching von API-Aufrufen, um redundante Aufrufe an Backend-Dienste zu verhindern
• Nutzung der vorhandenen IAM- und Cognito-Einrichtung zur Autorisierung des Zugriffs auf APIs.
Der Mieter könnte eine API auf dem API-Gateway erstellen, die eine LambdaFunktion aufruft. Der API-Aufruf ruft (triggert) eine Lambda-Funktion auf, um einen Code auszuführen. Lambda ermöglicht eine serverlose Architektur, bei der die EC2-Instanzen dynamisch bereitgestellt werden. Der Tenant muss keine EC2-Server (Instanzen) definieren. Die Lambda-Funktion könnte zum Beispiel ein Element aus einer DynamoDB-Tabelle oder ein Objekt aus einem S3-Bucket lesen, aktualisieren oder löschen.
Die Ergebnisse werden über das Internet an die mobile Anwendung zurückgegeben. Das API-Gateway ermöglicht den Zugriff und die Nutzung von AWS-Services für Anwendungen und fügt gleichzeitig Funktionen hinzu. Im
folgenden Beispiel wird eine serverlose Anwendung erstellt, die auf einer auf dem API-Gateway konfigurierten RESTful-API basiert. Sie wird verwendet, um eine DynamoDB-Tabelle mit der Service-Anforderung eines Clients zu aktualisieren, z. B. ein cab.
1. Mobiler Client wählt HTTPS-Endpunkt (Webseiten-URL auf S3-Bucket), der eine RESTful-API aufruft.
2. RESTful API auf API-Gateway ruft (triggert) Lambda-Funktion auf.
3. Lambda-Funktionen führen Code aus, der Daten in die Datenbank schreibt und eine Bestätigung an den mobilen Client zurückgibt.
Der größte Teil des Netzwerkdurchsatzes innerhalb eines Rechenzentrums findet an den Backend-Datenbankservern und dem Speicher statt. Die Verwendung von API zum Konfigurieren, Starten und Verwalten von AWS-Services ist ein wichtiger Aspekt des Cloud-Betriebs. In der Tat basiert die Programmierbarkeit auf einigen API-Aufrufen an die physische und virtuelle-basierte Infrastruktur. API-Gateway drosselt den Datenverkehr bei Spitzenbelastungen zu BackendSystemen. Darüber hinaus wird die Ausgabe von API-Aufrufen zwischengespeichert, um redundante Anfragen an Backend-Systeme zu vermeiden. API-Gateway-Anforderungen werden an den Backend-Dienst weitergeleitet, wenn die Zwischenspeicherung nicht aktiviert ist und die Drosselungsgrenzen auf Kontoebene nicht erreicht werden.
• API-Gateway kann mit mehreren Backends kommunizieren.
• Lambda-Funktionen.
• AWS Step-Funktionen Zustandsautomaten.
• HTTP-Endpunkte, die über Beanstalk-, ELB- oder EC2-Instanzen zugänglich sind.
• Nicht in AWS gehostete HTTP-basierte Operationen, die über das öffentliche Internet zugänglich sind.
Kinesis-Datenströme
Kinesis-Datenströme werden zum Erfassen und Speichern großer Datenströme (TB/Std.) aus Hunderten von Quellen wie Anwendungsprotokollen, Ereignissen zur Standortverfolgung oder Web-Transaktionen verwendet. Sie können Lambda so konfigurieren, dass es z. B. Ihren Stream automatisch abfragt und alle neuen Datensätze verarbeitet.
• Ermöglicht die Echtzeitverarbeitung von Streaming Big Data.
• Routing, Ordnen und Wiedergeben von Datensätzen.
• Mehrere Clients können gleichzeitig Nachrichten aus demselben Stream lesen.
• Wiederholung von Nachrichten bis zu sieben Tagen.
• Kunde kann Datensätze zu einem späteren Zeitpunkt konsumieren.
• Kapazität wird manuell konfiguriert, bevor der Stream aktiviert wird.
Kinesis-Betrieb
Consumers are EC2 instances that process (include transform) data records and forward them to the storage, database, or Kinesis firehose platform for analysis. Consider, for example, the große Datenmengen, die durch Millionen von drahtlosen Remote-Sensoren entstehen, die Echtzeitdaten an eine Anwendung senden.
Die Consumer leiten die Daten an Speicherdienste wie S3 und Datenbankdienste wie Redshift oder DynamoDB weiter. Die Unterstützung für das Hinzufügen mehrerer Consumer zu einem Kinesis-Datenstrom und die Aufzeichnungswiedergabe unterscheidet Kinesis von SQS. Kinesis repliziert außerdem Daten synchron über drei Availability Zones für Redundanz.
Kinesis-Streams skalieren nicht automatisch basierend auf der Arbeitslast (Kapazität hinzufügen). Konfigurieren Sie anfangs genügend Streams für die Kapazitätsanforderungen der Datenproduzenten und Datenkonsumenten. Ein Kinesis-Datenstrom beginnt mit einem Produzenten, der Echtzeit-Datensätze in einen Kinesis-Datenstrom einspeist.
Betrachten Sie zum Beispiel einen Webserver, der Protokolldaten an einen Kinesis-Datenstrom sendet. Der Konsument ist eine EC2-Instanz, die die Datensätze in Echtzeit aus einem Kinesis-Stream verarbeitet. Datensätze aus einem Stream sind standardmäßig bis zu 24 Stunden lang verfügbar; die erweiterte Datenaufbewahrungsfunktion ermöglicht jedoch einen Zugriff von bis zu 7 Tagen. Der Datenstrom wird von einem einzelnen oder mehreren Konsumenten verarbeitet, die auf EC2-Instanzen ausgeführt werden.
Firehose
Der Hauptzweck von Kinesis Firehose besteht darin, einen Kinesis-Datenstrom zu erfassen und an eine unterstützte Speicherplattform weiterzuleiten. Der Tenant weist eine EC2-Instanz (Consumer) zu, die einen Kinesis-Datenstrom an Kinesis Firehose weiterleitet. Der Tenant kann Business Intelligence (BI)-Tools zu Analysezwecken auf Daten ausführen, die z. B. in RedShift geladen wurden.
Der Umfang der Daten, die mit einem Kinesis-Datenstrom verbunden sind, ist enorm. Er ermöglicht es Tenants, analytische Tools auszuführen und eine Menge Berichte und zugehörige Ergebnisse abzuleiten. Beachten Sie, dass Firehose im Wesentlichen ein Vermittler zu RedShift, S3, Elasticsearch und Splunk für die Bereitstellung und Transformation ist. Es gibt auch eine serverseitige Verschlüsselung im Ruhezustand für die Datensicherheit.
Kinesis Data Streams vs. Firehose Vergleich
Kinesis Streams
Firehose
Not managed
Fully managed
7-day store
Automatic scaling
Multiple AWS services
S3, Redshift, Elasticsearch, Splunk
Custom processing
Transform data for the destination format
Low latency
Higher latency
Im Folgenden sind die Unterschiede zwischen Kinesis Streams und Kinesis Firehose aufgeführt.
• Kinesis-Datenströme erfassen, verarbeiten und analysieren Ströme.
• Kinesis Firehose erfasst und lädt Kinesis-Datenströme in den Datenspeicher.
• Der Datenverkehr der Kinesis-Datenströme wird zunächst an die Verbraucher weitergeleitet.
Lambda
Lambda ist eine neue Cloud-Architektur, die nun Serverless Computing ermöglicht. Die Cloud basiert derzeit auf der virtuellen Maschine als Baustein. Mieter verwenden derzeit ein statisches Modell, bei dem eine Anwendung in einem AMI gebündelt und einer EC2-Instanz zugewiesen wird. AWS ermöglicht es Entwicklern, Code mit verschiedenen unterstützten Plattformen an Lambda zu übergeben. Lambda übernimmt das gesamte Servermanagement, die Bereitstellung der Infrastruktur, die Redundanz und die Orchestrierung.
Im Gegensatz zu Beanstalk können Mieter nicht auf EC2-Instanzen oder andere Cloud-Infrastrukturen zugreifen, die von Lambda erzeugt werden. Es ist abstrahiert, so dass es keine Kontrolle über die AWS-Infrastruktur gibt. Es wird in erster Linie zum Hinzufügen von Funktionen zu Anwendungen und zur Verwaltung beliebiger AWS-Services verwendet. Dadurch definiert es die Art und Weise, wie Anwendungen bereitgestellt und verwaltet werden können, völlig neu.
Lambda blockiert alle eingehenden (öffentlichen Internet-) Netzwerkverbindungen und lässt nur T/IP-basierte ausgehende Verbindungen zu. Außerdem wird jeglicher Ptrace-Zugriff verweigert und der T-Port 25 (Anti-Spam) wird blockiert.
Funktion
Lambda-Funktionen werden zunehmend verwendet, um komplexe Anwendungsvorgänge und Datenmigration zwischen mehreren AWS-Services zu ermöglichen. Jeder AWS-Service verfügt über besondere Funktionen, die von Lambda-Funktionen verwendet werden, um verschiedene SpeicherTransformations-Analyse-Prozesse für Big Data zu ermöglichen. Die LambdaFunktionen können Daten aus mehreren Quellen lesen, darunter KinesisStreams, DynamoDB und S3. Darüber hinaus kann Lambda in DynamoDB- und S3-Speicher schreiben.
Lambda speichert Tenant-Code in einem S3-Bucket, wo er verschlüsselt wird. Jeder Funktion werden 500 MB an ephemerem (temporärem) Speicher zugewiesen, und die maximale Ausführungszeit ist auf 300 Sekunden begrenzt. Die maximale Anzahl der gleichzeitigen Ausführungen zu einem Zeitpunkt beträgt 300. Die Standardzeitüberschreitung beträgt 3 Sekunden und ist auf einen Wert zwischen 1 und 300 Sekunden konfigurierbar.
Ereignis Quelle
Mieter konfigurieren AWS-Services oder benutzerdefinierte Anwendungen als Ereignisquellen, die Ereignisse veröffentlichen, um eine Lambda-Funktion automatisch auszulösen oder aufzurufen. Es ist allgemein als EreignisquellenZuordnung bekannt und definiert den Lambda-Betrieb. Es gibt eine Untergruppe von AWS-Services, die Stream-Services genannt werden und Kinesis und DynamoDB für Lambda-Funktionen umfassen. Lambda-Funktionen werden von AWS-Services und Ereignissen aufgerufen, die mit dem Betriebszustand der AWS-Infrastruktur verbunden sind. AWS-Services wie S3, DynamoDB oder API-Gateway werden verwendet, um eine Lambda-Funktion aufzurufen.
Die Ereignisquellenzuordnung ist so konfiguriert, dass ein Quellenereignis mit einer Lambda-Funktion verknüpft wird. Die in der BucketBenachrichtigungskonfiguration definierte Lambda-Funktion wird ausgelöst, wenn ein Ereignis erkannt wird, z. B. wenn ein Benutzer eine Datei in einen S3Bucket kopiert. Die Lambda-Funktion überprüft die Sicherheitsberechtigungen, bevor sie auf AWS-Services ausgeführt wird.
Der S3-Bucket ist die Ereignisquelle, der die Berechtigungen zum Aufrufen der Lambda-Funktion gewährt werden müssen. Die Lambda-Funktion erbt die IAMRollenberechtigungen, die Sie Lambda zugewiesen haben, als die Funktion erstellt wurde. Die Rollenberechtigungen müssen den Zugriff auf den S3-Bucket erlauben, um die Funktion auszuführen.
Der Hauptunterschied zwischen AWS-Services und streambasierten Ereignisquellen besteht darin, wo die Ereignisquellen-Zuordnung aktiviert ist. Die Ereignisquellen-Zuordnung für AWS-Services befindet sich in der Ereignisquelle (S3, Glacier, SNS und RDS usw.). Die Ereignisquellen-
Zuordnung für streambasierte DynamoDB und Kinesis wird in AWS Lambda verwaltet. Es handelt sich um ein Pull-Modell, bei dem Lambda einen Stream nach bestimmten Datensätzen abfragt und bei Erkennung eine Lambda-Funktion aufruft.
Versioning
Der Zweck der Versionierung besteht darin, mehrere Versionen einer Funktion zu verwalten. Jede AWS Lambda-Funktion hat eine einzige, aktuelle Version des Codes. Es gibt eine native Unterstützung für die Versionierung derselben Funktion innerhalb des Lambda-Service. Mieter können die Aliases-Funktion nutzen und als Zeiger auf eine Funktion fungieren, anstatt den zugewiesenen Amazon Resource Name (ARN) zu verwenden.
Der Vorteil von Aliases ist die Verwaltung von Softwareentwicklung und Updates für Produktion und Tests. Es ist einfacher, einen Alias zu verwenden und ihn auf die aktuellste Lambda-Funktion zu verweisen, anstatt alle Konfigurationsaktualisierungen an der Ereignisquelle vorzunehmen. Jede veröffentlichte Lambda-Funktion kann nicht geändert werden (unveränderlich), und daher ist die Versions- und Dateiverwaltung ein wichtiger Aspekt des Lambda-Dienstes.
Andere AWS-Dienste
AWS bietet Benutzern alle Arten von Cloud-Speicher zusammen mit Datenbanklösungen. Es ist bekannt für seine sicheren, langlebigen, flüchtigen und hochverfügbaren Services.
Amazon Elastic Container Registry
Amazon ECR oder Elastic Container Registry ist ein vollständig verwaltetes Docker-Container-Registry-System, das es allen Entwicklern erleichtert, die verschiedenen Docket-Container-Images zu verwalten, zu speichern und bereitzustellen. Der Service von ECR ist mit ECS oder Elastic Container Service integriert, der bei der Vereinfachung der Entwicklung des ProduktionsWorkflows hilft. ECR macht es überflüssig, dass der Benutzer die ContainerRepositories selbst bedient und die zugrunde liegende Basis skaliert. ECR hostet die Images in einer hoch skalierbaren und verfügbaren Struktur, die es den Anwendern ermöglicht, die Container für ihre Anwendungen einzusetzen. Die Integration von ECR mit IAM oder Identity and Access Management gewährt die Kontrolle über jedes Repository auf der resource-level. .
Amazon Elastic Container Service
Amazon ECS oder Elastic Container Service ist ein leistungsstarker und hoch skalierbarer Service für die Containerverwaltung, der auch Docker-Container unterstützt. Er ermöglicht es den Benutzern, die Anwendung einfach auf einem Cluster von EC2-Instanzen auszuführen, der vollständig verwaltet wird. Der Service von ECS macht es überflüssig, dass der Benutzer die Infrastruktur des Cluster-Managements betreiben, installieren und skalieren muss. Sie können die Anwendungen, die Docker-fähig sind, mit Hilfe von API-Aufrufen stoppen und starten und auch auf die bekannten Funktionen wie Sicherheitsgruppen, EBSVolumes, Elastic Load Balancing, IAM-Rollen zugreifen und den kompletten Cluster-Status abfragen.
ECS kann für die Planung der Container-Platzierungen über die Cluster hinweg verwendet werden, die auf den Bedürfnissen der Ressourcen und den Anforderungen der Verfügbarkeit basieren. Wenn Sie möchten, können Sie auch Ihre gewonnenen Scheduler-Typen von Drittanbietern integrieren, um Ihre Anwendungs- und Geschäftsanforderungen zu erfüllen.
AWS Elastic Beanstalk
AWS Elastic Beanstalk ist ein Service, der für die Skalierung und Bereitstellung der Webanwendungen zusammen mit den Services verwendet werden kann, die mit .NET, JAVA, Node.js, PHP, Ruby, Docker, Python und Go auf regulären Servern wie Nginx, Apache, IIS und enger entwickelt werden. Alles, was Sie tun müssen, ist, den Code zu platzieren, und Elastic Beanstalk übernimmt automatisch die Aufgabe des Deployments, angefangen bei der Bereitstellung von Kapazität, der automatischen Skalierung und dem Lastausgleich bis hin zur Überwachung des Anwendungszustands. Außerdem behalten Sie die volle Kontrolle über die Ressourcen von AWS und können jederzeit auf die Basisressourcen zugreifen.
Amazon Elastic Block Store
Amazon EBS oder Elastic Block Store stellt den Benutzern Speicher-Volumes auf Block-Ebene für die Nutzung der Instanzen von EC2 zur Verfügung. Die EBS-Volumes sind an das Netzwerk angeschlossen und herrschen frei von den Instanzen. EBS bietet Speicher-Volumes, die zuverlässig, verfügbar und vorhersehbar sind. EBS eignet sich für die Anwendungen, die ein Dateisystem, eine Datenbank oder den Zugriff auf Speicher auf Raw-Block-Level benötigen.
Amazon Aurora
Es ist eine relationale Datenbank, die mit PostgreSQL und MySQL kompatibel ist. Sie ist für die Cloud gebaut, die funktioniert, indem sie die Verfügbarkeit und Leistung der High-End-Datenbanken und die Kosteneffizienz und Einfachheit der Datenbanken, die Open Source sind, kombiniert. Im Vergleich zu den Standard-MySQL-Datenbanken ist Aurora fünfmal schneller als MySQL und dreimal so schnell wie die PostgreSQL-Datenbanken. Aurora bietet den Kunden die Verfügbarkeit, Sicherheit und Zuverlässigkeit von Datenbanken kommerzieller Qualität zur Hälfte der Kosten. RDS oder Relational Database Services, die auch die verschiedenen Verwaltungsaufgaben wie das Einrichten einer Datenbank, die Bereitstellung von Hardware, Backups und Patches automatisieren, verwaltet Aurora vollständig.
AWS Practice Test 1
Sie müssen versuchen, die folgenden Fragen zu beantworten, ohne einen Antwortbogen, einen Referenzlink oder eine Online-Hilfe zu verwenden. Vergleichen Sie Ihr Ergebnis am Ende mit dem vorgegebenen Antwortbogen auf der letzten Seite und sehen Sie, wo Sie stehen. Gehen Sie alle Übungsfragen noch einmal durch und beziehen Sie sich auf die Referenzlinks für die Themen, von denen Sie glauben, dass sie Ihnen fehlen und die Sie nacharbeiten müssen. Und dann versuchen Sie die Übungsfragen noch einmal, bis Sie bei allen behandelten Themen sicher sind.
1. Sie haben eine EC2-Instanz gestartet und einen Beispiel-Webserver zu Testzwecken bereitgestellt. Sie haben eine Sicherheitsgruppe eingerichtet, die Port 80 zu öffentlich und Port 22 nur für Ihre öffentliche IP-Adresse zulässt. Sie haben die Instanz nach dem Deployment gestoppt. Nun sind Sie zurückgekommen, haben die EC2-Instanz gestartet und versuchen, die Instanz zu verbinden. Sie können jedoch keine Verbindung zu Ihrem Webserver herstellen. Welche der folgenden Aussagen zu diesem Problem ist richtig?
A. Das Stoppen und Starten der Instanz ändert die öffentliche IP Ihrer EC2Instanz, daher kann sich die öffentliche IP-Adresse Ihrer Instanz ändern, und Sie müssen eine neue öffentliche IP verwenden, um Ihre EC2-Instanz zu verbinden.
B. Sie müssen Ihre Sicherheitsgruppe aktualisieren, um Ihre öffentliche IPAdresse zuzulassen.
C. Sie müssen Ihre Netzwerk-ACL konfigurieren.
D. Bitten Sie AWS, Ihre alte öffentliche IP-Adresse Ihrer EC2-Instanz zuzuweisen.
2. Ein Kunde verwendet CloudFormation zum Erstellen und Aktualisieren von Ressourcen. Der Kunde möchte jedoch einige der Ressourcen nicht aktualisieren. Wie kann der Kunde sicherstellen, dass CloudFormation diese Ressourcen nicht aktualisiert oder ändert?
A. Validieren Sie das CloudFormation-Skript jedes Mal, bevor Sie CloudFormation Stack ausführen.
B. Verwenden Sie die Stack-Richtlinie, um Aktionen von CloudFormation auf einige bestimmte Ressourcen zu beschränken.
C. Verwenden Sie die karte "Ereignis" des CloudFormation-Stacks und überwachen Sie den Stack-Erstellungsprozess. Stoppen Sie manuell jeden unbeabsichtigten Ressourcen-Prozess.
D. Verwenden Sie AWS Config mit AWS CloudFormation, um jegliche Konfigurationsänderungen in den vorhandenen Ressourcen zu beschränken.
3. Welche der folgenden Funktionen muss konfiguriert sein, bevor Sie die regionsübergreifende S3-Replikation konfigurieren können?
A. Die Lebenszyklusregel muss konfiguriert werden.
B. Die Versionierung muss aktiviert sein.
C. Der Bucket muss mit KMS-Verschlüsselung konfiguriert sein.
D. Die CORS-Konfigurationsrichtlinie muss konfiguriert sein.
4. Sie wurden gebeten, eine auf MySQL basierende RDS-Datenbank mit mehreren AZ zu erstellen. Sie haben ein Lese-Replikat innerhalb einer Region erstellt, um die Leistung von Leseabfragen zu verbessern. Welcher der folgenden Begriffe ist in Bezug auf die Multi-AZ-Lesereplikat-RDSDatenbank zutreffend?
A. RDS kopiert Daten asynchron zwischen Standby- und Read-ReplicaInstanzen.
B. RDS kopiert Daten synchron zwischen Standby- und Lese-ReplikatInstanzen.
C. RDS kopiert Daten synchron zur Standby-Instanz und asynchron zur Lese-Replikat-Instanz.
D. RDS kopiert Daten asynchron in die Standby-Instanz und synchron in die Lese-Replikat-Instanz.
5. Welche der folgenden Auswahlmöglichkeiten sind in Bezug auf die Amazon Security Groups zutreffend? (Wählen Sie alle zutreffenden aus)
A. Jede Instanz muss mit mindestens einer Sicherheitsgruppe verknüpft sein.
B. Sie können benutzerdefinierte Regeln in einer Sicherheitsgruppe hinzufügen und entfernen.
C. In VPC können Sie die zugeordnete Sicherheitsgruppe nicht mehr ändern, sobald die Instanz gestartet ist.
D. In EC2 Classic können Sie die angehängte Sicherheitsgruppe nicht mehr ändern, sobald die Instanz gestartet ist.
6. Sie müssen einen Job auf einer EC2-Instanz ausführen. Die ausgeführte
Anwendung liest die Daten aus dem S3-Speicher, führt die rechenbezogenen Operationen aus und speichert die Ergebnisse anschließend wieder im S3Speicher. Die Anwendung ist so skizziert, dass sie mit Ausfällen anständig umgehen kann. Es besteht keine Eile, den Auftrag abzuschließen. Welcher der Instanztypen ist nachweislich der kostengünstigste?
A. On-Demand-Instanzen.
B. Reservierte Instanzen.
C. Spot-Instanzen.
D. Eine Flotte von EC2-Instances, die hinter einem ELB laufen.
7. Sie führen eine Webanwendung aus, die in der AWS Cloud organisiert ist, wobei die Flotte von EC2-Instances hinter einem Load Balancer konfiguriert und mit einer Auto Scaling Group verbunden ist. Später stellen Sie fest, dass der ursprünglich gewählte Instance-Typ nicht für die Webanwendung geeignet ist, und Sie beschließen, den Instance-Typ zu ändern. Was sollten Sie tun?
A. Stoppen Sie alle EC2-Instanzen während der Nacht oder außerhalb der Hauptgeschäftszeiten. Starten Sie neue EC2-Instanzen mit dem gewünschten Instanztyp, stellen Sie die Anwendung auf der neuen Instanz bereit und registrieren Sie die EC2-Instanz bei ASG und Load Balancer.
B. Ändern Sie die Instanztypen in der mit ASG verbundenen Startkonfiguration und heben Sie die Registrierung des alten Instanztyps nacheinander auf.
C. Ändern Sie den ASG so, dass er auf den neuen Instanztyp verweist, und stoppen Sie die vorhandenen laufenden Instanzen. Neue Instanzen werden automatisch mit neuen Instanztypen gestartet.
D. Löschen Sie den alten Load Balancer, erstellen Sie einen neuen Load Balancer und registrieren Sie den neuen Instance-Typ mit dem erstellten Load Balancer.
8. Einer der Benutzer Ihres Unternehmens hat den Inhalt eines S3-Buckets versehentlich und ungewollt gelöscht. Sie wurden gebeten, eine Lösung anzuwenden, die verhindern kann, dass Benutzer versehentlich S3-Daten löschen. Sie sollten auch in der Lage sein, Daten wiederherzustellen, wenn ein solcher Vorfall in der Zukunft eintritt. Welche Optionen würden Sie empfehlen, um den Datenverlust unter solchen Umständen zu reduzieren? (Wählen Sie alles, was zutrifft)
A. Aktivieren der Versionierung für einen S3-Bucket.
B. Aktivieren von MFA zum Löschen auf einem S3-Bucket.
C. Entfernen aller Berechtigungen aus dem S3-Bucket.
D. Aktivieren der serverseitigen Verschlüsselung (SSE) auf dem S3-Bucket.
9. Sie haben eine EC2-Instanz gestartet, die ein EBS-gesichertes Volume und ein Instance-Store-gesichertes Volume hat. Nachdem Sie Ihre Anwendung konfiguriert haben, haben Sie die Instanz versehentlich beendet. Welche der folgenden Aussagen in Bezug auf die Speicherdaten sind wahr?
A. Die auf dem EBS-backed-Volume gespeicherten Daten bleiben erhalten, aber die Daten, die auf dem Instance-Store-backed-Volume gespeichert sind, gehen verloren.
B. Die auf beiden Volumes gespeicherten Daten gehen verloren.
C. Die auf beiden Volumes gespeicherten Daten bleiben erhalten, bis Sie die Volumes manuell löschen.
D. Die auf dem EBS-gesicherten Volume gespeicherten Daten gehen verloren, aber die Daten, die auf dem Instance-Store-gesicherten Volume gespeichert sind, bleiben erhalten.
10. Sie haben zwei AWS-Konten mit den Namen "HR-AWS-" und "Finance-AWS-". Die Ressourcen der beiden Konten werden in derselben AWS-Region gehostet. Eine der Instanzen von HR-AWS- möchte privat mit der in Finance-AWS- gehosteten Instanz kommunizieren. Der Datenverkehr soll nicht über das Internet laufen. Was sollten Sie tun, um dies zu erreichen?
A. Da die Ressourcen in beiden Konten zur gleichen Region gehören, können sie standardmäßig darauf zugreifen.
B. Sie müssen ein VPC-Peering zwischen den VPCs der beiden Konten erstellen und konfigurieren.
C. Erstellen und konfigurieren Sie Direct Connect zwischen beiden AWSKonten.
D. VPC-Peering kann nur innerhalb desselben AWS-Kontos konfiguriert werden. Verwenden Sie daher besser IAM-Richtlinien und gewähren Sie die erforderlichen Berechtigungen.
11. Sie führen eine Webanwendung auf einer einzelnen EC2-Instanz aus. Die Anwendung ist benutzersitzungsspezifisch, d. h. die Anwendung speichert Benutzerinformationen im Speicher. Nun hat der Datenverkehr aufgrund des Wachstums des Unternehmens zugenommen. Sie möchten eine Lösung implementieren, die den plötzlichen Datenverkehr automatisch
und reibungslos bewältigen kann. Was würden Sie implementieren, damit die Anwendung den Datenverkehr bewältigen und einen Lastausgleich durchführen kann, ohne dass Änderungen auf Codeebene erforderlich sind?
A. Konfigurieren Sie den Load Balancer so, dass die Anwendung mit der Flotte von EC2-Instanzen ausgeführt wird.
B. Konfigurieren Sie den Load Balancer so, dass die Anwendung mit der Flotte von EC2-Instanzen ausgeführt wird, und fügen Sie eine AutoSkalierungsrichtlinie hinzu.
C. Konfigurieren Sie den Load Balancer so, dass die Anwendung mit der Flotte von EC2-Instanzen ausgeführt wird, fügen Sie eine Auto-ScalingRichtlinie hinzu und aktivieren Sie die vom Load Balancer generierte Cookie-Stickiness.
D. Konfigurieren Sie den Load Balancer so, dass die Anwendung mit der Flotte von EC2-Instanzen ausgeführt wird, fügen Sie eine Richtlinie für die automatische Skalierung hinzu und deaktivieren Sie die vom Load Balancer generierte Cookie-Stickiness.
12. Sie wurden gebeten, eine Lösung vorzubereiten, bei der die Benutzer eine relationale Datenbank zum Speichern ihrer Daten wünschen. Die Benutzer möchten außerdem Shell-Zugriff, wann immer sie ihn benötigen. Welche der folgenden Optionen würden Sie am ehesten empfehlen?
A. Verwenden Sie RDS mit einer einzelnen Verfügbarkeitszone.
B. Verwenden Sie RDS mit einer Mehrfachverfügbarkeitszone.
C. Installieren Sie die gewünschte Datenbank-Engine auf einer EC2Instanz.
D. Verwenden Sie Dynamo DB, um die gewünschten Daten zu speichern.
13. Welche der folgenden Aktionen werden ausgeführt, wenn Sie Ihre RDSInstanz von einer Single-AZ- in eine Multi-AZ-Bereitstellung konvertieren?
A. Es wird ein Snapshot Ihrer primären Abbildung erstellt.
B. Es wird eine neue Standby-Instanz in einer anderen Availability Zone als dem Snapshot erstellt.
C. Die synchrone Replikation wird zwischen der primären und der Standby-Instanz konfiguriert.
D. Der primäre Server wird einmal neu gebootet.
14. Sie möchten die Dynamo DB als No-SQL-Datenbank für eine Anwendung verwenden, die stark konsistente Reads benötigt. Welche der folgenden Aussagen ist in Bezug auf die konsistenten Lesevorgänge der Dynamo DB richtig?
A. Stark konsistente Reads können für Abfragen mit dem Primärschlüssel und dem globalen sekundären Index angefordert werden.
B. Stark konsistente Reads können für Abfragen unter Verwendung des Primärschlüssels angefordert werden, aber nicht für Abfragen unter Verwendung des globalen sekundären Index.
C. Stark konsistente Reads können nicht für Abfragen angefordert werden, die den Primärschlüssel verwenden, aber sie können für Abfragen angefordert werden, die den globalen sekundären Index verwenden.
D. Stark konsistente Reads können weder für Abfragen unter Verwendung des Primärschlüssels noch für Abfragen unter Verwendung des globalen sekundären Indexes angefordert werden.
15. Sie verwenden eine Anwendung, die häufige Lese- und
Schreiboperationen auf Dynamo DB durchführt. Alle Leseoperationen verwenden den Primärschlüssel. Allerdings ist das Lesen nach dem Schreiben manchmal nicht konsistent, was nicht das gewünschte Verhalten für Ihre Anwendung ist. Welche der folgenden Optionen kann Ihnen helfen, das Problem mit minimalem Zeitaufwand zu beheben?
A. Dynamo DB bietet nur die Eventual-Konsistenz. Sie können Ihre Anwendungsdaten im Cache speichern, bevor Sie sie in Dynamo DB speichern und dann aus dem Cache lesen.
B. Die Anwendung kann einen stark konsistenten Lesevorgang anfordern, der sich nicht auf die bereitgestellte Kapazität auswirkt.
C. Die Anwendung kann ein stark konsistentes Lesen anfordern, verbraucht dann aber mehr Leseeinheiten.
D. Verwenden Sie in diesem Fall eher den RDS als die Dynamo DB.
Answer sheet
1. A
2. B
3. B
4. C
5. A and D
6. C
7. B
8. A & B
9. A
10. B
11. C
12. C
13. A, B, and C
14. B
15. C
AWS Practice Test 2
1. Sie erstellen einen S3-Bucket mit dem Namen "test-bucket", erhalten dabei aber die in der folgenden Abbildung gezeigte Fehlermeldung.
Welche der folgenden Optionen unten ist der Grund dafür?
A. Der Fehler kommt, weil S3-Bucket-Namen innerhalb Ihres AWSStammkontos eindeutig sind.
B. Der Fehler kommt, weil S3-Bucket-Namen innerhalb Ihres Stamm- und verknüpften AWS-Kontos eindeutig sind.
C. Der Fehler kommt, weil S3-Bucket-Namen innerhalb Ihrer AWS-Region eindeutig sind.
D. Der Fehler kommt, weil S3-Bucket-Namen global über alle AWS-Konten hinweg eindeutig sind.
Begründung der Antworten
Option A ist falsch: S3-Bucket-Namen sind nicht eindeutig für Ihr AWSStammkonto; sie sind global eindeutig für alle AWS-Konten.
Option B ist falsch: S3-Bucket-Namen sind nicht eindeutig für Ihr AWSRoot-Konto und die verknüpften AWS-Konten; sie sind global für alle
AWS-Konten eindeutig.
Option C ist falsch: S3-Bucket-Namen sind nicht eindeutig für Ihr beliebiges Stamm-AWS-Konto innerhalb einer AWS-Region; sie sind global eindeutig für alle AWS-Konten.
Option D ist richtig: Da S3-Bucket-Namen global eindeutig sind, können Sie keinen S3-Bucket-Namen verwenden, der bereits von jemand anderem verwendet wird.
2. Welche der folgenden Optionen sind gültige Speichertypenoptionen in Bezug auf den S3-Speicher? (Wählen Sie alles, was zutrifft)
A. Storage Connect.
B. Amazon Snowball.
C. S3 Standard—Infrequent Access.
D. Amazon Glacier.
Rationale of answers
Option A ist nicht korrekt: Mit AWS Direct Connect können Sie eine dedizierte Netzwerkverbindung zwischen Ihrem Netzwerk und AWS Direct Connect-Standorten herstellen.
Option B ist falsch: AWS Snowball ist ein Service, der die Übertragung großer Datenmengen in und aus AWS mit physischen Speichergeräten beschleunigt. Er macht die Internetkonnektivität für die Übertragung von Daten zwischen Ihrem Rechenzentrum vor Ort und dem AWSDatenzentrum überflüssig.
Options C and D sind korrekt: Amazon S3-Speicherklassen sind S3 Standard, S3 Standard-Infrequent Access, S3 One Zone-Infrequent Access und Amazon Glacier. Das heißt, die Antworten C und D sind richtig.
3. Welche der folgenden Aussagen zu S3 Cross-Region Replication (CRR) ist zutreffend?
A. Sie können S3 CRR verwenden, um die Latenzzeit zu minimieren.
B. Sie können S3 CRR verwenden, um das automatische, asynchrone Kopieren von Objekten zwischen Buckets in verschiedenen AWS-Regionen zu ermöglichen.
C. Amazon S3 verschlüsselt alle Daten bei der Übertragung zwischen AWSRegionen mit SSH-Schlüsseln.
D. Für S3 CRR muss entweder der Quell- oder der Ziel-Bucket die Versionierungs-Funktion aktiviert haben.
Begründung der Antworten
Option A ist richtig: Angenommen, Sie haben Kunden an zwei geografischen Standorten. Um die Latenz beim Zugriff auf die im S3Speicher gespeicherten Objekte zu minimieren, können Sie Objektkopien in AWS-Regionen pflegen, die sich geografisch in der Nähe Ihrer Benutzer befinden.
Option B ist richtig: Ja, Sie können S3 CRR verwenden, um ein automatisches, nicht temporäres Kopieren von Objekten über Buckets hinweg auf verschiedene Arten von AWS-Regionen zu ermöglichen.
Option C ist falsch: Amazon S3 verschlüsselt alle Daten bei der Übertragung über AWS-Regionen mit SSL, nicht mit SSH-Schlüsseln.
Option D ist falsch: Um S3 CRR zu konfigurieren, müssen sowohl Quell- als auch Ziel-Buckets die Versionierungsfunktion aktiviert haben.
4. Welche der folgenden Aussagen ist keine gültige Eigenschaft von S3Speicher?
A. Sie ist für eine Haltbarkeit von 99,999999999% der Objekte ausgelegt.
B. Er ist für eine Verfügbarkeit von 99,9 % über ein Jahr ausgelegt.
C. Sie ermöglicht Ihren Anwendungen die Verbindung zu den Diensten über eine Gateway-Appliance unter Verwendung von Standard-Speicherprotokollen, wie NFS und iSCSI.
D. Es unterstützt die SSL-Verschlüsselung von Daten bei der Übertragung und von Daten im Ruhezustand.
Rationale of answers
Option A ist falsch: S3-Speicher bietet die Haltbarkeit von 99,999999999 %, was eine gültige Eigenschaft ist. Aber die Frage zielt darauf ab, die Optionen zu finden, die nicht gültig sind, daher ist dies die falsche Antwort.
Option B ist falsch: S3-Speicher ist für eine Verfügbarkeit von 99,9 % über
ein bestimmtes Jahr ausgelegt, was eine gültige Funktion ist. Aber die Frage zielt darauf ab, die Optionen zu finden, die nicht gültig sind, daher ist dies die falsche Antwort.
Option C ist richtig: S3 Storage unterstützt nicht die Verwendung von Standard-Speicherprotokollen wie NFS und iSCSI. Da dies keine gültige Funktion von S3 Storage ist, ist dies die richtige Antwort.
Option D ist falsch: S3-Speicher unterstützt SSL-Verschlüsselung von Daten bei der Übertragung und von Daten im Ruhezustand, was eine gültige Funktion ist. Aber in der Frage geht es darum, die Optionen zu finden, die nicht gültig sind; daher ist dies die falsche Antwort.
5. Sie haben eine Amazon Linux-basierte t2.micro EC2-Instanz erstellt. Außerdem haben Sie den SSH-Zugangsschlüssel heruntergeladen. Wenn Sie versuchen, von Ihrem Rechner aus über das Internet auf diese Instanz zuzugreifen, können Sie sich nicht mit ihr verbinden. Was könnten die folgenden Gründe dafür sein, dass Sie keine SSH-Verbindung zu einer EC2Instanz herstellen können.
A. Möglicherweise haben Sie beim Erstellen/Auswählen der Sicherheitsgruppe einen SSH-Port für Ihre öffentliche IP nicht zugelassen.
B. Ihre Instanz gehört möglicherweise zu einem öffentlichen Subnetz, und die Standard-Subnetz-Einstellung verhindert möglicherweise, dass die öffentliche IP an die gestartete Instanz übertragen wird.
C. Möglicherweise haben Sie die Sicherheits-Patches auf Ihrer EC2-Instanz nicht aktualisiert.
D. Sie hätten eine andere Linux-Distribution wie RHEL oder Ubuntu anstelle von Amazon Linux wählen sollen
Begründung der Antworten
Option A ist richtig: Um auf SSH Ihrer EC2-Instanz zuzugreifen, müssen Sie sicherstellen, dass die eingehende Regel der angehängten Sicherheitsgruppe so konfiguriert ist, dass sie die SSH-Verbindung für Ihre Quell-IP-Adresse/Ihren Standort akzeptiert.
Option B ist richtig: Selbst wenn Sie die SSH-Eingangsregel in der angehängten Sicherheitsgruppe Ihrer EC2-Instanz zugelassen haben, wenn Ihre Instanz zum öffentlichen Subnetz gehört und keine öffentliche IP zugewiesen/angehängt hat, könnten Sie nicht auf SSH Ihrer EC2-Instanz zugreifen.
Option C ist falsch: Es spielt keine Rolle, ob Ihre EC2-Instanz die neuesten Sicherheits-Patches installiert hat oder nicht; Sie sollten immer noch in der Lage sein, auf SSH Ihrer EC2-Instanz zuzugreifen, wenn Ihre Sicherheitsgruppe für den Zugriff auf die SSH-Verbindung für Ihren Quellenstandort konfiguriert ist.
Option D ist falsch: Unabhängig davon, welche Linux-Varianten Sie gewählt haben, ist die SSH-Verbindung für alle Linux-Varianten wie Amazon Linux, Ubuntu, RHEL und CentOS usw. einsetzbar.
6. Welche der folgenden Optionen ist richtig in Bezug auf die maximale Größenbeschränkung für das Hochladen eines einzelnen Amazon S3Objekts?
A. 128 KB
B. 5 GB
C. 5 TB
D. 5 PB
Begründung der Antworten
Options A and B sind falsch: Das größte Objekt, das in einer einzigen PUTAnforderung hochgeladen werden kann, ist 5 GB. Sie können jedoch eine Datei mit einer Größe von mehr als 5 GB hochladen, indem Sie die mehrteilige -Funktion verwenden.
Option C ist korrekt: Ein einzelnes S3-Objekt kann in der Größe von 0 Byte bis 5 TB variieren. Daher ist Antwort C richtig.
Option D ist falsch: Da ein einzelnes S3-Objekt nicht mehr als 5 TB groß sein kann, ist 5 PB eine falsche Option.
7. Welche der folgenden Aussagen bezüglich des S3 Reduced Redundancy Storage (RRS) ist falsch?
A. Es ermöglicht Kunden, nicht-kritische, reproduzierbare Daten auf niedrigeren Redundanzstufen zu speichern als der Standardspeicher von Amazon S3.
B. Es ist so konzipiert, dass es eine Haltbarkeit von 99,99 % und eine Verfügbarkeit der Objekte von 99,99 % über ein Jahr hinweg gewährleistet.
C. It is designed to sustain the loss of data in a single facility.
D. It is designed to provide 99.99% durability and 99.999999999% availability of objects over a given year.
Rationale of answers
Options A, B, and C are incorrect: First of all, the question is about to select the option which is incorrect with regards to the S3 RRS. The first three options (A, B, and C) are useful features of S3 RRS. Hence, these answers are incorrect.
Option D ist richtig: S3 RRS bietet 99,9 % Haltbarkeit und 99,9 % Verfügbarkeit. Das heißt, dies ist die falsche Aussage; daher ist dies die richtige Antwort.
Referenzbild: Bitte prüfen Sie die folgende S3-Storage-Vergleichstabelle.
Image Credit: Amazon
8. S3 Bucket-Richtlinien können verwendet werden, um Zugriff auf andere AWS-Konten zu gewähren. Ist diese Aussage richtig oder falsch?
A. Wahr
B. Falsch
Rationale of answers
Option A ist richtig: Sie können die S3-Bucket-Richtlinien so anen, dass Sie anderen AWS-Konten Zugriff auf Bucket-Ebene gewähren können.
Option B ist falsch: Dies ist eine falsche Option.
9. Sie sind dabei, den Lebenszyklus des S3-Speichers zu arrangieren. Sie haben die Aufgabe erhalten, die Bucket-Daten vom S3-Standardspeicher in eine solche Speicheroption zu verschieben, die kostengünstiger sein und Daten in Echtzeit abrufen soll.
Welche der Speicheroptionen in der folgenden Abbildung sollten Sie wählen?
A. Sie sollten die Option "Übergang zu Standard-IA nach" wählen.
B. Sie sollten die Option "Transition to Amazon Glacier after" wählen.
C. Sie können eine der beiden Lebenszyklus-Optionen wählen; beide bieten die gleichen Funktionalitäten.
D. Keine der genannten Optionen kann Ihre Anforderungen erfüllen.
Rationale of answers
Option A ist richtig: Der Speichertyp S3 Standard-IA ist preiswerter als der Standard-S3-Speicher und bietet außerdem Datenabrufe in Echtzeit. Daher ist dies die richtige Wahl für diese Frage.
Option B ist falsch: Wenn Sie sehen, dass es in der Frage darum geht, einen weniger teuren S3-Speichertyp auszuwählen, denken Sie vielleicht, dass Amazon Glacier die richtige Wahl ist. Aber dann gibt es eine weitere Bedingung in der Frage, nämlich "Abrufen von Daten in Echtzeit". Hier erfüllt Amazon Glacier die Bedingung nicht, da die in Amazon Glacier gespeicherten Daten Zeit zum Abrufen benötigen. Bitte besuchen Sie den Referenzlink für weitere Details über Glacier Data retrieval policies.
Options C and D sind falsch: Diese Optionen treffen nicht auf die Frage zu.
10. Sie haben einen S3-Bucket, der zehn Objekte enthält. Das Geschäftsteam hat Sie gebeten, ein Replikat dieses Buckets in einer anderen Region für Disaster Recovery-Zwecke zu erstellen; daher haben Sie gerade die regionsübergreifende S3-Replikation konfiguriert. Zusätzlich haben Sie fünf weitere Objekte in den (gleichen) replizierten Quell-S3-Bucket hochgeladen.
Wie viele Objekte werden in den S3-Bucket der Zielregion repliziert?
A. 5 Objects
B. 10 Objects
C. 15 Objects
D. 0 Objects
Rationale of answers
Option A ist korrekt: Alle vorhandenen S3-Objekte in einem replizierten (Quell-)S3-Bucket müssen manuell in den Ziel-S3-Bucket kopiert werden. Nach dem Aktivieren der regionenübergreifenden Replikation werden nur neue Objekte in den Ziel-S3-Bucket repliziert.
Options B, C, and D sind falsch: Nur fünf neu hinzugefügte Objekte (nach der Konfiguration von CRR) würden in den Ziel-S3-Bucket repliziert werden; daher sind die Optionen mit den Objektwerten 10, 15 und 0 falsche Antworten.
AWS Practice Test 3
Question #1
Was iert, wenn ein Objekt in einem versionierungsfähigen S3-Bucket gelöscht wird? Wählen Sie zwei Antworten:
A. Alle Versionen des Objekts werden dauerhaft gelöscht.
B. Alle Versionen des Objekts bleiben im Bucket, und Amazon S3 fügt eine DELETE-Markierung ein.
C. Alle zukünftigen GET-Anfragen ohne Versions-ID geben einen '404 not found'-Fehler zurück.
D. Alle Objektversionen werden automatisch in Glacier archiviert.
E. Ohne Angabe einer Versions-ID schlägt die Löschanforderung fehl.
Question #1 Explanation: B, C
Wenn die Versionierung autorisiert ist, kann ein einfaches LÖSCHEN ein Objekt
nicht dauerhaft löschen.
Amazon S3 setzt eine Löschmarkierung in den Bucket, und diese Markierung wird zur neuesten Version des Objekts mit einer neuen ID. Wenn Sie versuchen, ein Objekt zu GETEN, dessen letzte Version eine Löschmarkierung ist, verhält sich Amazon S3 so, als ob es gelöscht wurde (obwohl es nicht gelöscht wurde) und gibt einen 404-Fehler zurück.
Question #2
Was ist zu tun, damit die folgende Autorisierung durchgeführt werden muss, um sicherzustellen, dass eine CloudFront-Distribution, die einen S3-Bucket als Ursprung verwendet, nur über CloudFront-URLs und nicht direkt vom S3Bucket auf Inhalte zugreifen kann? Wählen Sie zwei Antworten aus:
A. Erstellen Sie eine IAM-Rolle mit Lesezugriff auf den ursprünglichen S3Bucket.
B. Erstellen Sie eine Origin Access Identity, einen bestimmten CloudFrontBenutzer, und verknüpfen Sie die Origin Access Identity mit Ihrer Distribution.
C. Ordnen Sie der CloudFront-Verteilung eine IAM-Rolle mit Leserechten für den S3-Bucket zu.
D. Richten Sie eine Bucket-ACL auf dem ursprünglichen S3-Bucket ein, die den Zugriff vom CloudFront-Verteilungs-ARN erlaubt.
E. Ändern Sie die Berechtigung entweder auf Ihrem Amazon S3-Bucket oder auf den Dingen in Ihrem Bucket, so dass nur der Ursprungszugriff die Leseberechtigung erkennt.
F. Richten Sie ein Server-SSL-Zertifikat eines Drittanbieters auf dem ursprünglichen S3-Bucket und ein Client-Zertifikat auf der CloudFrontVerteilung ein.
Question #2 Explanation: B, E
Um sicherzustellen, dass Ihre Benutzer nur über CloudFront-URLs auf Ihre Dinge zugreifen, unabhängig davon, ob die URLs signiert sind, führen Sie die folgenden Aufgaben aus:
1. Erstellen Sie eine Ursprungs-Zugangsidentität, einen bestimmten CloudFront-Benutzer, und verknüpfen Sie die UrsprungsZugangsidentifikation mit Ihrer Distribution. Sie können auch eine Ursprungszugriffskennung erstellen und sie Ihrer Distribution hinzufügen, wenn Sie sie erstellen.
2. Ändern Sie die Berechtigungen entweder auf Ihrem Amazon S3-Bucket oder auf den Objekten in Ihrem Bucket, sodass nur die UrsprungsZugangsidentität eine Leseberechtigung (oder eine Lese- und Berechtigung) hat. Wenn Ihre Benutzer/Kunden über CloudFront auf Ihre Amazon S3-Objekte zugreifen, ruft die CloudFront-UrsprungsZugangsidentität die Objekte im Namen Ihrer Benutzer ab. Wenn Ihre Benutzer Objekte direkt unter Verwendung von Amazon S3-URLs anfordern, wird ihnen der Zugriff verweigert. Die Ursprungszugriffsidentität hat die Berechtigung, auf Objekte in Ihrem Amazon S3-Bucket zuzugreifen, aber die Benutzer nicht.
Question #3
Was ist die maximale Größenbeschränkung für ein in einem S3-Bucket gespeichertes Objekt?
A. 5 TB
B. 16 TB
C. 5 GB
D. 16 GB
Question #3 Explanation: A
Derzeit beträgt die maximale Objektgröße 5 TB in einem S3-Bucket.
Question #4
Bis zu welcher Größe kann ein S3-Bucket maximal wachsen?
A. 5 TB
B. 16 TB
C. 5 GB
D. Es gibt keine Größenbegrenzung auf der Eimerebene.
Question #4 Explanation: D
Es gibt keine Begrenzung für die Anzahl der in einem Bucket gespeicherten Objekte und keinen Unterschied in der Leistung, ob Sie viele Buckets oder nur wenige verwenden. Sie können alle Ihre Objekte in einem einzigen Bucket speichern oder sie über mehrere Buckets organisieren.
Question #5
Was müssen Sie konfigurieren, um Lesezugriff auf bestimmte Objektschlüssel in einem S3-Bucket von Benutzern in einem anderen AWS-Konto zu ermöglichen?
A. Bucket ACL
B. Bucket Policy
C. kontoübergreifende IAM-Instanzrolle mit Lesezugriff auf S3-Bucket.
D. Bucket Lifecycle policy.
Question #5 Explanation: B
Sie müssen eine Bucket-Richtlinie für kontoübergreifende Berechtigungen für andere AWS-Konten oder Benutzer in einem anderen Konto verwenden.
Question #6
Was müssen Sie konfigurieren, um die Schreibberechtigung für die Amazon S3 Log Delivery Group zum Schreiben von Zugriffsprotokollobjekten in Ihren Bucket zu erhalten?
A. Bucket ACL
B. Bucket Policy
C. Kontoübergreifende IAM-Instanzrolle mit Lesezugriff auf S3-Bucket
D. Richtlinie für den Lebenszyklus von Eimern
Question #6 Explanation: A
Wenn Sie möchten, dass Amazon S3 Zugriffsprotokolle an Ihren Bucket liefert, müssen Sie der Gruppe "Log Delivery" eine Schreibberechtigung für den Bucket erteilen. Die einzige Möglichkeit, der Gruppe "Log Delivery" die erforderlichen Berechtigungen zu erteilen, ist über eine Bucket-ACL.
Question #7
Ihr Sicherheitsteam hat gefordert, dass alle Anfragen an S3-Objekte aus Compliance-Gründen protokolliert und gespeichert werden. Was sollten Sie tun?
A. Konfigurieren Sie eine Bucket-Richtlinie, um alle Anfragen zu protokollieren.
B. Konfigurieren Sie eine Bucket-ACL, um alle Anfragen zu protokollieren.
C. Schalten Sie die Protokollierung des Serverzugriffs auf Ihrem Bucket ein.
D. Einschalten der CloudTrail-Protokollierung.
Question #7 Explanation: C
Um Zugriffsanfragen auf Ihren Bucket zu verfolgen, können Sie die Zugriffsprotokollierung autorisieren. Jeder Eintrag im Protokoll enthält Details zu einer einzelnen Zugriffsanforderung, z. B. den Anforderer, den BucketNamen, die Anforderungszeit, die Anforderungsaktion, den Antwortstatus und ggf. einen Fehlercode. Zugriffsprotokollinformationen können bei Sicherheitsund Zugriffsprüfungen effizient sein.
Question #8
Eine Website für Stockfotografie verfügt über eine umfangreiche Sammlung von Originalbildern. Die Originale werden für die Darstellung auf der Website in Miniaturbilder umgewandelt. Die Miniaturbilder sind von den Originalbildern leicht reproduzierbar. Sowohl auf die Thumbnails als auch auf die Quellen wird häufig zugegriffen und sie werden in Amazon S3 gespeichert. Was ist eine kostenoptimierende Strategie, die Sie anwenden könnten, um die S3Speicherkosten zu senken?
A. Richten Sie eine Lebenszyklusrichtlinie ein, die die Originale in den Glacier-Speicher verschiebt.
B. Stellen Sie den Schlüsseln des Miniaturbildobjekts eine zufällige UUID voran.
C. Einstellen der Speicherklasse der Miniaturbilder auf reduzierten Redundanzspeicher.
D. Richten Sie eine Lebenszyklus-Richtlinie ein, die die Miniaturbilder in den Glacier-Speicher verschiebt.
E. Schalten Sie die Versionierung für die Miniaturansichten ein.
Question #8 Explanation: C
Reduced Redundancy Storage (RRS) ist eine Amazon S3-Speicheroption, die es Kunden ermöglicht, ihre Kosten zu senken, indem sie nicht-kritische, reproduzierbare Daten auf niedrigeren Redundanzniveaus als der Amazon S3Standardspeicher speichern.
Question #9
Sie werden als Berater angeheuert, um Überlegungen zur Leistungsoptimierung für ein Unternehmen zu empfehlen, das konstant mehr als 200 Anfragen pro Sekunde für in einem S3-Bucket gespeicherte Objekte stellt. Die Anfragen sind eine Mischung aus GET/PUT/LIST/DELETE-Operationen. Der Großteil der Anfragen sind GET-Anfragen. Welche Empfehlungen würden Sie geben, um die S3-Zugriffsleistung zu verbessern? Wählen Sie zwei Antworten:
A. Erwägen Sie die Verwendung einer CloudFront-Verteilung für die GETAnforderungen.
B. Ersetzen Sie S3 als Speicheroption durch ein RAID 0-Array aus EBSVolumes.
C. Schalten Sie die serverseitige Verschlüsselung aller Objekte im Bucket aus.
D. Erwägen Sie die Erstellung mehrerer S3-Buckets, um Anfragen parallel zu bedienen.
E. Empfehlen Sie, Zufälligkeit in die Schlüsselpräfixe einzuführen und sequenzielle, wichtige Präfixe zu vermeiden.
Question #9 Explanation: A, E
Wenn Sie vorhersagen, dass Ihre Arbeitslast konstant mehr als 100 Anfragen pro Sekunde betragen wird, sollten Sie sequenzielle Schlüsselnamen vermeiden. Wenn Sie reguläre Zahlen oder Datums- und Zeitmuster in entscheidenden Namen verwenden müssen, fügen Sie dem Schlüsselnamen ein zufälliges Präfix hinzu. Durch die Zufälligkeit des Präfixes werden die Schlüsselnamen gleichmäßiger über mehrere Indexpartitionen verteilt.
Question #10
Amazon S3 bietet Lese-nach-Schreib-Konsistenz für PUTS von neuen Objekten und eventuelle Konsistenz für Überschreib-PUTS und DELETES. Welche Überlegungen sollten Sie für ein verteiltes System mit hohem Datenverkehr anstellen, das Objekte in S3 liest und schreibt?
A. Anstatt Daten zu überschreiben, schreiben Sie sie in neue Objektschlüssel.
B. Versionierung einschalten.
C. Überschreiben Sie vorhandene Objekte mit PUTS.
D. Aktivieren Sie die S3-Übertragungsbeschleunigung.
Question #10 Explanation: A
Das Schreiben von Daten auf neue Schlüssel stellt sicher, dass verteilte Komponenten keine alten oder veralteten Daten erhalten.
Question #11
Sie konfigurieren einen S3-Bucket, um Ihre statische Website zu hosten. Was ist die effizienteste Methode, um Leseberechtigungen für alle zuzulassen, die auf Ihre Website zugreifen?
A. Konfigurieren Sie eine Bucket-Richtlinie, die Lesezugriff auf den gesamten Bucket für alle gewährt.
B. Konfigurieren Sie eine Bucket-ACL, die Lesezugriff auf den gesamten Bucket für alle gewährt.
C. Schreiben Sie ein Skript, das in regelmäßigen Abständen Ihre ObjektACL für alle Objekte in den Buckets so setzt, dass sie Leserechte gewähren.
D. Konfigurieren Sie einen IAM-Benutzer, der Leseberechtigung für den S3-Bucket hat, und erstellen Sie einen Zugriffsschlüssel und einen geheimen Schlüssel für die Kunden und Benutzer.
Question #11 Explanation: A
Wenn Sie einen Bucket als Website konfigurieren, müssen Sie die Objekte, die
Sie bereitstellen möchten, öffentlich lesbar machen. Dazu schreiben Sie eine Bucket-Richtlinie, die jedem die s3: GetObject-Berechtigung. Wenn ein Benutzer am Website-Endpunkt ein Objekt anfordert, das nicht existiert, gibt Amazon S3 den HTTP-Antwortcode 404 (Nicht gefunden) zurück. Wenn das Objekt existiert, Sie aber keine Leseberechtigung für das Objekt erteilt haben, gibt der Website-Endpunkt den HTTP-Antwortcode 403 (Zugriff verweigert) zurück.
Conclusion
Schauen wir uns eine Strategie an, die für die Prüfung der Stufe SAA-C02 effektiv ist. Wenn Sie die Prüfung ablegen, besteht die Strategie darin, sie in etwa drei Durchgängen zu absolvieren. Der 1. Schritt besteht darin, das auszuwählen, was Sie wissen, und mit den Antworten zu gehen, bei denen Sie sich sicher fühlen. Und wenn Sie sich nicht sicher sind, sagen wir, Sie verbringen fünf bis sieben Sekunden mit einer Frage, und Sie sind sich nicht sicher, ob es Option A oder B sein könnte, dann markieren Sie diese Frage und machen Sie weiter. Verbringen Sie im ersten Durchgang nicht so viel Zeit mit einer Frage. Gehen Sie also im ersten Schritt mit Zuversicht vor und wählen Sie die Frage aus, die Sie kennen, und dann können Sie sie am Ende der Prüfung überprüfen. Und gehen Sie immer zurück und überprüfen Sie alle Antworten von Anfang an.
Als nächstes folgt der zweite Schritt, wenn Sie den Eliminationsprozess anwenden. Sie beginnen damit, die verfügbaren Antworten zu analysieren und die Optionen zu betrachten, von denen Sie wissen, dass sie falsch sind, und die falschen zu eliminieren. Es könnte so geschrieben sein, dass es Sie verwirrt, aber Sie wissen genau, dass Amazon S3 so nicht funktioniert, oder mit VPC ist es einfach nicht möglich, also ist dies der Eliminierungsprozess. Mit dieser Methode sind die Antworten auf wenige Möglichkeiten beschränkt, und eine kann richtig sein.
Und der dritte Schritt ist einfach die Überprüfung. Durchsuchen Sie die gesamte Prüfung, um die markierten Fragen zu finden und verbringen Sie mehr Zeit mit ihnen. Schauen Sie sich also die Fragen mehrmals an, die Sie noch übrig haben, und dann haben Sie genug Zeit, um über diese Fragen nachzudenken. Versuchen Sie, nicht zu viel Zeit auf eine Frage zu verwenden; denken Sie bitte an den ersten Schritt und machen Sie einfach weiter. Sie haben also den ersten Durchgang, den zweiten Durchgang, dann den dritten Durchgang, in dem Sie die
Prüfung durchsuchen und alle verbleibenden Fragen beantworten möchten.
Und jetzt, wo Sie fertig sind und ziemlich sicher sind, also wenn Sie noch Zeit haben, sollten Sie zurückgehen und die Fragen immer wieder durchgehen, weil Sie sicherstellen wollen, dass diese Antworten richtig sind. Selbst wenn Sie sich bei ein oder zwei Fragen nicht ganz sicher sind und noch nicht genau wissen, wie die Antwort lautet, ist sie vielleicht zu 100 Prozent richtig, so dass Sie froh sein sollten, dass Sie Ihr Bestes getan haben. Sie haben Ihr ganzes Wissen aufgebraucht, und wenn Sie alle drei Durchgänge durchlaufen haben und ein gutes Gefühl dabei haben, dann haben Sie eine gute Arbeit geleistet.
Wenn Ihnen das Wissen, die Fertigkeiten und die Fähigkeiten angeboren sind, geben Sie einfach Ihr Bestes. Wenn Sie in Panik geraten, werden Sie falsch antworten, auch wenn Sie die Antworten kennen. Sie sollten also alle Fragen in der Prüfung nach bestem Wissen und Gewissen beantworten. Diese Strategie funktioniert bei vielen Menschen. Erinnern Sie sich also an diese drei Durchgänge, wenn Sie die Prüfung ablegen, und gehen Sie zu Ihren Fragen zurück, um sicherzustellen, dass Sie Ihr Bestes tun, um die Prüfung zum SAALevel zu bestehen.