De uitdagingen bij bulk migratie van documenten en data
door Ernst van Rheenen, op 6-jun-2017 11:43:01
Wat als u tientallen miljoenen documenten wilt migreren en wel meer dan 100 sites? En wat als downtime gedurende een bulk migratie tot 0 gereduceerd moet zijn? Dan is het handmatig migreren van documenten sowieso geen optie.
Bij het migreren van grote hoeveelheden documenten en data zijn er een aantal uitdagingen. Uitdagingen die bij elke migratie een rol spelen, maar bij grote hoeveelheden een toevlucht nemen. Wat zijn die uitdagingen? Lees het hieronder.
1. InfrastructuurGewoonlijk is de hardware (netwerk en servers) niet berekend op de piekbelasting die ontstaat tijdens een migratie van grote hoeveelheden documenten. De snelheid die benodigd is voor een migratie is 10 tot 20 duizend keer sneller dan in de ‘normale’ situatie en daarvoor moet een oplossing worden gevonden. Het is bijvoorbeeld mogelijk om de harde schijf fysiek extern te verwerken en te converteren naar het doelsysteem. Hoewel goed beveiligd, geniet deze methode niet de voorkeur. Data verlaat immers toch de veilige muren van het bedrijfspand en daar is vaak weerstand tegen.
Een andere methode is om het migratieproces gedurende een langere periode te verwerken waarbij het bronsysteem nog gewoon draait. Op het laatste moment kunnen het bron- en doelsysteem met elkaar worden gesynchroniseerd, zodat ook de laatst gewijzigde bestanden over worden gezet naar de nieuwe omgeving. Dit wordt de zogenaamde delta-migratie genoemd en deze methode is inmiddels volledig geaccepteerd. Met name omdat deze methode veilig is en er geen sprake is van downtime.
Een andere uitdaging bij bulk migratie is de content. Bij zulke grote hoeveelheden is er geen stakeholder die precies weet wat er eigenlijk aan data aanwezig is en om hoeveel terabyte het exact gaat. Er is immers geen mogelijkheid om even op de rechtermuisknop te klikken en het aantal terabyte eenvoudig af te lezen. Natuurlijk zou een systeembeheerder wel kunnen vertellen hoeveel er gebruikt wordt aan storage, maar een vertaling naar de exacte hoeveelheid bestanden is onmogelijk.
Kortom, het beheren van grote hoeveelheden data is complex en in alle gevallen loopt het aantal duplicaten (zowel in bestanden als in bestandsmappen) en ROT (Redundant, Obsolete and Trivial) uit de hand. Natuurlijk zijn dit problemen die bij kleine hoeveelheden data ook voorkomen, maar in geval van grote hoeveelheden is dit probleem niet handmatig op te lossen. Bij een paar honderdduizend documenten is het nog wel mogelijk om in de zomerperiode met een klein team een opschoningsactie uit te voeren, maar bij vijftig miljoen documenten is dit onbegonnen werk.
Bij het migreren van content naar een nieuw systeem bestaat altijd de wens om met een schone lei te beginnen. Vervuiling uit het oude systeem wil je natuurlijk niet meenemen naar een nieuwe omgeving. Het is daarom nodig om op te schonen, door bijvoorbeeld ontdubbeling, classificatie en herstructurering. Met grote aantallen is een geautomatiseerd proces voor opschoning en de uiteindelijke bulk migratie een must!
Met meer dan vijftien jaar ervaring in content migraties heeft Xillio een geoptimaliseerde oplossing voor bulk migraties. Van een paar duizend tot miljoenen documenten, zonder dat het een zware belasting geeft op uw netwerk en mét kwaliteitswinst!
------------------------------------------------------------------
Migratie aanpak voor een contentmigratie
Er zijn kortweg 2 mogelijkheden, zelf doen of uitbesteden. Lees de voor- en nadelen in dit Engelstalige whitepaper.