• Rob
  • Registratie: Februari 2000
  • Niet online
gold_dust schreef op maandag 4 mei 2020 @ 08:37:
Het lijkt inderdaad uitgaand traffic te zijn wat AWS en Azure potentieel erg duur en onaantrekkelijk maakt. AWS rekent 0.09$ per GB terwijl bijvoorbeeld DigitalOcean en Vultr 0.01$ per GB rekenen. Dat is een factor 9. Deze website geeft een goed overzicht van het verschil: https://joshtronic.com/20...ail-linode-upcloud-vultr/

Een oplossing voor AWS zou zijn om al het uitgaande traffic via een Lightsail server in dezelfde zone te laten lopen, daar krijg je bijvoorbeeld 2TB transfer voor maar 5$ per maand.

De 'grote 4' andere aanbieders: DigitalOcean, Linode, Vultr en OVH hebben transparantere, lagere prijzen en behalve OVH ook goede klantenservice en reviews. Ik wil nu gaan bekijken of die een alternatief zijn voor AWS en Azure.
Een beetje laat, maar ik meld het toch even: niet alleen data richting het internet kost geld, maar ook de data die door je loadbalancers gaat

In the beginning the Internet was a bunch of smart users with dumb terminals. Now...


Acties:
  • +2Henk 'm!

  • Tom
  • Registratie: Juni 1999
  • Niet online
ToolkiT schreef op vrijdag 8 januari 2021 @ 12:13:
<bump van een oude reactie, want ik heb gister mijn ACCP gehaald :) >
Same.
Ik was al een paar maanden bezig met AWS, in de avonduren. Af en toe wat trainingsvideo's gekeken. Vooral deze was nuttig. Examen zelf vrij onvoorbereid gedaan, maar dat ging mij goed af.
Nu eens kijken of ik de stap naar Certified Solutions Architect Associate ga maken. Zou eigenlijk zonde zijn om het niet te doen.

  • Uberprutser
  • Registratie: Januari 2000
  • Laatst online: 26-03 01:50
SAA Is een beetje meer de diepte in en de vragen zijn heel breed. AWS heeft ook een Exam Readiness training, dan weet je een beetje wat je kan verwachten.

https://www.aws.training/learningobject/curriculum?id=20685

As you may already have guessed, following the instructions may break your system and you are on your own to fix it again.


  • InsanelyHack
  • Registratie: Januari 2001
  • Laatst online: 10:40
Ik heb een vraag over het versnellen van een S3 database import. Wat is de situatie: We moeten door omstandigheden van AWS RDS terug naar eigen EC2s + Oracle daarbovenop. Daar kunnen we niet omheen. Er zijn ongeveer 13 omgevingen variërend van klein naar groot. Op dit moment zijn we kleine omgevingen aan het migreren. Dit gaat op dit moment het efficiëntste door een Compressed RMAN backup te maken die we dumpen van AWS RDS Fully managed in een AWS S3 bucket. In deze region maken we een S3 Endpoint en koppelen we deze aan de VPC waar de EC2 instance draait (is ook dezelfde als AWS RDS draaide). We hebben ook de internet connectivity (fproxy) op de EC2 instance die de import moet binnenhalen verwijderd zodat we weten dat het verkeer door of via de S3 endpoint loopt. Wat we ook doen we halen maar ca 1Gbit network throughput. Dat lijkt best fors 128MB/s maar voor de productie omgevingen (ca 5TB) voorzien we te lang een downtime. Dus ik heb de instance type ook veranderd (vergroot) naar een R5.X8Large type die een volledige 10Gbit Nic heeft. De standaard vNIC in onze instance had "Up to" 10Gbit. Met de snelle instance maakt de import (eigenlijk een copy van S3 naar een filesysteem) weinig uit. De snelheid blijft zo rond de 130MB/s hangen. Ik ben erg benieuwd naar jullie adviezen.

  • HKLM_
  • Registratie: Februari 2009
  • Laatst online: 15:21
InsanelyHack schreef op vrijdag 9 september 2022 @ 16:28:
Ik heb een vraag over het versnellen van een S3 database import. Wat is de situatie: We moeten door omstandigheden van AWS RDS terug naar eigen EC2s + Oracle daarbovenop. Daar kunnen we niet omheen. Er zijn ongeveer 13 omgevingen variërend van klein naar groot. Op dit moment zijn we kleine omgevingen aan het migreren. Dit gaat op dit moment het efficiëntste door een Compressed RMAN backup te maken die we dumpen van AWS RDS Fully managed in een AWS S3 bucket. In deze region maken we een S3 Endpoint en koppelen we deze aan de VPC waar de EC2 instance draait (is ook dezelfde als AWS RDS draaide). We hebben ook de internet connectivity (fproxy) op de EC2 instance die de import moet binnenhalen verwijderd zodat we weten dat het verkeer door of via de S3 endpoint loopt. Wat we ook doen we halen maar ca 1Gbit network throughput. Dat lijkt best fors 128MB/s maar voor de productie omgevingen (ca 5TB) voorzien we te lang een downtime. Dus ik heb de instance type ook veranderd (vergroot) naar een R5.X8Large type die een volledige 10Gbit Nic heeft. De standaard vNIC in onze instance had "Up to" 10Gbit. Met de snelle instance maakt de import (eigenlijk een copy van S3 naar een filesysteem) weinig uit. De snelheid blijft zo rond de 130MB/s hangen. Ik ben erg benieuwd naar jullie adviezen.
Contact opnemen met Amazon om je vanuit support te helpen met dit vraagstuk.

👩‍🚀 -> Astronauts use Linux because you cant open Windows in space <- 🚀


  • thomke
  • Registratie: November 2011
  • Laatst online: 16:42
nieuw topic gemaakt voor mijn vraag:
Portal voor (proces)databeheer van meerdere installaties

[Voor 94% gewijzigd door thomke op 20-09-2022 15:27. Reden: verplaats naar nieuw topic (reactie hier verwijderen is iet mogelijk)]

Pagina: 1 2 Laatste


Tweakers maakt gebruik van cookies

Tweakers plaatst functionele en analytische cookies voor het functioneren van de website en het verbeteren van de website-ervaring. Deze cookies zijn noodzakelijk. Om op Tweakers relevantere advertenties te tonen en om ingesloten content van derden te tonen (bijvoorbeeld video's), vragen we je toestemming. Via ingesloten content kunnen derde partijen diensten leveren en verbeteren, bezoekersstatistieken bijhouden, gepersonaliseerde content tonen, gerichte advertenties tonen en gebruikersprofielen opbouwen. Hiervoor worden apparaatgegevens, IP-adres, geolocatie en surfgedrag vastgelegd.

Meer informatie vind je in ons cookiebeleid.

Sluiten

Toestemming beheren

Hieronder kun je per doeleinde of partij toestemming geven of intrekken. Meer informatie vind je in ons cookiebeleid.

Functioneel en analytisch

Deze cookies zijn noodzakelijk voor het functioneren van de website en het verbeteren van de website-ervaring. Klik op het informatie-icoon voor meer informatie. Meer details

janee

    Relevantere advertenties

    Dit beperkt het aantal keer dat dezelfde advertentie getoond wordt (frequency capping) en maakt het mogelijk om binnen Tweakers contextuele advertenties te tonen op basis van pagina's die je hebt bezocht. Meer details

    Tweakers genereert een willekeurige unieke code als identifier. Deze data wordt niet gedeeld met adverteerders of andere derde partijen en je kunt niet buiten Tweakers gevolgd worden. Indien je bent ingelogd, wordt deze identifier gekoppeld aan je account. Indien je niet bent ingelogd, wordt deze identifier gekoppeld aan je sessie die maximaal 4 maanden actief blijft. Je kunt deze toestemming te allen tijde intrekken.

    Ingesloten content van derden

    Deze cookies kunnen door derde partijen geplaatst worden via ingesloten content. Klik op het informatie-icoon voor meer informatie over de verwerkingsdoeleinden. Meer details

    janee