Data Warehouse Appliance – varför?

Skrivet av: Anders Bergdahl 27.3.2014 16:33 | Kategori: Datalager | 0 Kommentarer

Vi kan vara överens om att kraven från användare av rapport och analyslösningar blir större. Man vill analysera mer information med kortare svarstider och accepterar inte ledtider på månader för att kunna anlysera data från källor som ännu inte finns i datalagret. Det är också svårare än någonsin att förutsäga hur analytiska lösningar kommer att utvecklas. Dagens teknik möjliggör analyser som vi inte ens vågade fantisera om för bara fem till tio år sedan. Exempelvis kan man göra avancerad statistisk analys på hundratals miljoner poster på några sekunder. Jag kommer själv ihåg situationer när jag inte vågat köra en fråga som kopplade tabeller på ett par tre miljoner rader till varandra. Nyligen jobbade jag i en appliance och kopplade ihop tabeller med hundratals miljoner poster och fick svarstider som var ögonblickliga, kanske någon sekund. Detta utan att göra annat än att ladda in data från källan. Ingen tid lades på modellering, index eller partitionering.

Det pratas också mycket om ”big data”. Utan att ta ställning till vad ”big data” är kan vi konstatera att man nu vill anlysera data från fler källor än förut. Det kan röra sig om detaljerad data från tillverkningsprocesser, data från sociala medier, maskingenererad data, realtidsdata från nätverk, användarmönster från webbsiter, transaktioner från betalningsflöden, m.m. Kort sagt, de flesta organisationer har någon process som generar mer data än man förut har kunnat lagra, ladda eller ens tänka på att analysera.

Färdigpaketerade datalagringsläsningar, data warehouse appliance, är specialdesignade kombinationer av hårdvara, mjukvara och tjänster som gör att man kan möta de utmaningar som dessa allt större, datamängder ger. Alternativet är att anpassa hårdvara, mjukvara och infrastruktur som är utveckad för helt annat syfte än data warehousing och analys.

I ett kommande webinar kommer jag att utveckla dessa tankar och visa på exempel på fördelar och nackdelar med paketerade lösningar för datalager, Data Warehouse appliance. Jag hoppas att vi hörs då. Klicka här för att registrera dig till webinaret.

Taggar: Data Warehouse , appliance

Dela / Kommentera »

Reflektioner från Gartner BI & Analytics Summit 2014

Skrivet av: Andréas Danielsson 14.3.2014 9:30 | Kategori: Trender | 0 Kommentarer

Vårens Gartner BI & Analytics Summit ägde rum 10-11 mars i London. Framtidsspaningen handlade om datatopia och smarta maskiner. Ämnet för konferensens slutpresentation var smarta maskiner och vi fick också se en demo av betaversionen av IBMs Watson Analytics som är ett steg i denna riktning. Man kan sammanfatta det som "ställ en fråga, få hjälp av Watson att hitta rätt data och att göra din analys för att få svar på frågan".

Det är förstås en spännande utveckling men får ändå sägas vara en bit bort för de flesta. Därför var det stort fokus på data discovery och prediktiv analys, utifrån flera aspekter, såväl användningsområden, organisation och kompetens. Styrning (governance) är också en viktig fråga med hänsyn till data discovery och det är tydligt att striden mellan de etablerade BI-plattformarna (IBM, SAP, MS m.fl.) och nischleverantörerna (Tableau, Qlik, Tibco Spotfire) handlar om hur de tekniskt kan stödja  "governed data discovery". Hur finna balans mellan flexibilitet och styrning?

Big data

Big data är fortfarande ett hett ämne och det talades om både strategi för Big Data, HADOOP och diverse användningsområden. På flera håll uttrycktes dock en viss skepsis - "hasn't data always been big?", "how many times have you looked for more data because you have too much space in your data warehouse?". Kontentan är således att i BI-sammanhang har vi alltid pratat om stora datamängder. Icke desto mindre så förekom Big Data inom alla ämnesområden, alltifrån hur vi ska anpassa datalagret för att kunna hantera det till val av leverantör för analys av social media.

Big Data är alltså fortfarande hett men det kan vara så att toppen på hypen redan har passerats.

Nästa generations datalager

Vad ska vi göra med datalagret? Börja om? Lägga ner? Fortsätta som tidigare? Det var frågor som ställdes och svaret var att datalagret kommer inte att försvinna eftersom det är en arkitektur som kan implementeras med flera olika teknologier, exempelvis in-memory och virtualisering.

In-memoryteknik i databaser håller fortfarande på att mogna men ser ut att ge stora effekter gällande prestanda. Höga priser kan dock vara en blockerande faktor på kort sikt.

Federerad data och virtualisering driver ett behov av ett logiskt datalager. Utgångspunkten är att vi inte längre behöver begränsa oss till ett enda centralt datalager, men samtidigt bör man inte ta bort det centrala datalagret - det har fortfarande sin funktion. Man bör istället kombinera lösningar och teknologier för tillgodose och hantera olika behov.

Cloud BI

På konferensen presenterades den senaste Gartner's Magic Quadrant för databaser. Det är inga större skillnader gällande de ledande leverantörerna. Det som är intressant är dock att en molntjänst som Amazon Web Services nu har inkluderats.

I en undersökning nyligen svarade 46% av de svarande företagen att de använder Cloud BI eller planerar att göra det inom 12 månader. Motsvarande andel har varit ca 30% de senaste fem åren. En drivkraft är Big Data där Cloud är den teknologi som används mest. En annan drivkraft är att allt fler datakällor ligger i molnet, t.ex. ERP-system, CRM-system m.m. Det blir då mer naturligt att även BI-lösningarna hamnar i molnet. Fenomenet kallas data gravity, dvs. att data tenderar att dras till molnet.

Cloud BI kan innebära många fördelar men man bör förstås se över hur de ska användas bäst. Ska det vara en av flera BI-lösningar eller en del av en BI-lösning? Eller ska det vara den enda BI-lösningen?

Nya roller i BI-organisationen

I takt med allt större fokus på analytics så krävs nya roller och kompetenser i BI-organisationen. Den roll som det pratas mest om är Data Scientist, en person som utforskar data, ställer hypoteser, ifrågasätter befintliga antaganden och drar slutsatser. I rollen ingår att hjälpa organisationen att använda data på ett mer innovativt sätt. En annan ny roll är Chief Data Officer (CDO), en roll som fokuserar på "data governance", t.ex. principer, riktlinjer och regler för datakvalitet och informationssäkerhet.

Kopplat till detta ser man att en tänkbar framtida informationsfunktion har en tydlig uppdelning i två delar: analys av information och hantering av information.

Helt klart är att en mer varierad flora av teknologier, lösningar och data innebär nya krav på organisation och styrning. Social media och mer detaljerad information om den enskilde konsumenten ställer också krav på att integritetsfrågor hanteras.

Taggar: Data discovery , Big data , Data scientist , Data governance , Trender , Cloud , Data Warehouse , Analytics , Prediktiv analys

Dela / Kommentera »

Är det möjligt att bygga ett datalager på några veckor?

Skrivet av: Anders Lernberg 20.2.2014 15:01 | Kategori: Datalager | 0 Kommentarer

Jag brukar prata om tre tidstjuvar som bör hanteras innan ett beslutstödsprojekt påbörjas:

  • Organisationen vill ha ett beslutstöd, men vet inte till vad.
  • Organisationen för att utveckla och förvalta ett beslutstöd är fel.
  • Bristande datakvalité och dålig kunskap om källsystemen.

Varje av dessa tre ämnen är ett blogginlägg i sig och som jag kommer att utveckla närmare under våren.

Jag har i tidigare inlägg (klicka här om du vill läsa mina tidigare inlägg) skrivit om revolutionen inom BI/DW området och kan med gott samvete säga att ja, det går att bygga ett datalger på några veckor. För att lyckas med ett snabbare beslutstöd behöver man dock beakta något/några av följande:

  • Appliances, dvs. specialbyggda databasmaskiner
  • Ny databasteknik, t.ex. kolumlagring, kolumnkomprimering, minnesbaserade databaser, MPP
  • Mer avancerade ETL-verktyg, där delar eller hela ETL-processen körs i databasens motor, kopplingar finns till datakvalitésverktyg, stöd för web services, möjlighet att hantera Big Data m.m.
  • Nya utvecklingsverktyg som är en kombination av modelleringsverktyg, ETL-verktyg och i vissa fall även dataprofilering.
  • Verktyg för inkrementell laddning, Change Data Capture
  • Data Vault-modellering
  • Sammanställande rapport- och frågeplattformar, dvs. programvara som samtidigt kan skicka ut frågor till flera databaser och sammanställa resultatet i en rapport

Med de tre tidstjuvarna hanterade, ny databasteknik, bra verktyg och en lämplig datamodell är det alltså enligt mig, fullt möjligt att bygga ett medelstort datalager på några få veckor. Vi hjälper dig såklart gärna med detta. Kontakta mig gärna eller delta på vårt webinar den 12 mars om du är nyfiken och vill veta mer. Information om webinaret kommer läggas upp på vår eventsida inom kort.

 

Taggar: BI , DW , Data Warehouse , Beslutsstöd

Dela / Kommentera »

Finns det en konflikt mellan människan och årsbokslutet?

Skrivet av: Andreas Bernlind 4.2.2014 9:43 | Kategori: Verksamhetsstyrning | 0 Kommentarer

Om vi har en förväntan att bokslutsprocessen ska bli en plåga så blir det så. Jag kan känna att det ofta finns något som kan liknas vid en konflikt mellan människan och bokslut, framför allt årsbokslut. Detta är speciellt vanligt i de organisationer vars medarbetare har varit med under några år. Vad skulle hända om vi istället bestämde oss för att denna process istället skulle bli något väldigt positivt och en möjlighet att utveckla både organisationen och oss själva?

Att bestämma sig och engagera sig i att förbättra flera, eller t.o.m. alla, led i processen leder inte bara till ökad kvalité utan jag skulle vilja gå så långt att säga att det i längden också förbättrar medarbetarnas självkänsla och livskvalitet.

Är vi rädda för att ändra något som i alla fall fungerar hjälpligt för risken att vi hamnar i en ännu värre situation? Eller ännu värre; sitter vi och håller på information för att inte riskera att bli överflödiga eller få andra uppgifter som ligger utanför vår ”komfortzon”. Det är viktigt, om än lite skrämmande, att verkligen ifrågasätta de befintliga processerna.

De första förändringarna är alltid de svåraste. Börja med att ta mindre steg i början för att i alla fall börja rör dig framåt.

Vad kan man då göra för några förbättringar när man väl har bestämt sig? Det kan självklart skilja sig väldigt mycket mellan olika organisationer, men det finns ofta ett antal problemområden där vi i stort sett alla kan bli bättre inom. Några exempel är inrapportering ifrån dotterbolag m.fl, interna mellanhavanden, sena rättningar och korrigeringar samt felaktigt fokus.

Det kan t.o.m. vara så att vi i vissa fall blir effektivare av att öka på rapporteringsfrekvensen, genom att göra vissa moment månadsvis, eller kvartalsvis, istället för bara årsvis kan hjälpa oss att hela tiden vara ”up to date” och på så sätt så slipper vi skjuta fram allt till årsbokslutet. Vi tar små smällar som inte känns så mycket under året istället för att få en riktigt knock-out smäll i januari…

Känner du att du vill ta del av mer information och förhoppningsvis bli inspirerad så anmäl dig gärna till något av Affectos seminarium Effektivisera Bokslutsprocessen som hålls i Malmö tisdagen den 4 mars och i Stockholm tisdagen den 11 mars.

Läs mer och anmäl dig till seminariet i Malmö

Läs mer och anmäl dig till seminariet i Stockholm

Taggar: CPM , årsbokslut , årsredovisning , Seminarium , Verksamhetsstyrning , Rapportering

Dela / Kommentera »

Business Case för Master Data Management

Skrivet av: Anders Bergdahl 16.1.2014 11:55 | Kategori: Dataintegration | 0 Kommentarer

MDM, Master Data Management, är något som det pratats om rätt länge och nu börjar de flesta bolag komma så långt att man vill gå från ord till handling. En del kör igång MDM satsningar med ögonbindel, motivet är ungefär ”alla pratar om MDM alltså måste det vara bra, låt oss köpa en mjukvara och köra igång”. Jag tycker att det finns betydligt bättre sätt att komma igång. Det finns också många organisationer som jobbar med MDM men inte vet om det, de kallar inte det de gör för MDM. Det kanske kallas ”datakvalitet”, ”referensdata hantering”, ”begreppskatalog” eller ”registervård”.

På Affecto anser vi att de enda satsningar som ska göras är de satsningar som ger mer avkastning, nytta, än kostnad. I vårt webinar – ”Vi hjälper dig att bygga ett business case för MDM” kommer jag att diskutera ett antal sätt att motivera och räkna hem MDM satsningar inom flera olika verksamhetsområden. Avsikten är ett ge lite tips om var man kan finna lågt hängande frukter och med en begränsad kostnad får igång arbetet med ”master data”, eller som det blir på svenska ”bemästra data”. För mig handlar MDM om att aktivt ta kontroll över data och därigenom göra data till värdefull information.

Jag hoppas vi hörs på Webinaret den 29/1 klockan 09.00

Taggar: Master Data Management Data Governance , Data Integrator , Data kvalitet , master data management

Dela / Kommentera »

Data Vault, ett högaktuellt ämne inom Data Warehouse - nu som Webinar On Demand

Skrivet av: Carin Paulsson 10.12.2013 14:30 | Kategori: Datalager | 0 Kommentarer

Data Vault är en datamodelleringsmetodik för att bygga andra generationens Enterprise Data Warehouse (EDW). Med Data Vault-modellering bygger man EDW’s som är mer hållbara och har betydligt bättre prestanda, är fullständigt kontrollerbart, agilt och mer anpassningsbart till förändringar över tiden. 

I vårt webinar ”Data Vault – modeling the agile data warehouse” delar Hans Hultgren, en av grundarna av Data Vault konceptet, med sig av sin kunskap och expertis. I webinaret tar vi bland annat upp:

  • Definitionen av ett EDW
  • Data vault modelleringsteknik
  • Varför man ska överväga att använda Data Vault i nästa generations EDW

Taggar: Data Vault , Agile , Data Warehouse

Dela / Kommentera »

Kategori:
Trender

Tags:

Öppet hus hos Affecto i Malmö

Skrivet av: Carin Paulsson 21.11.2013 21:00 | Kategori: Trender | 0 Kommentarer

På vårt Öppet hus i Malmö kom trettiotvå förväntansfulla personer med humöret på topp.

Kvällen började med en kreativ uppgift där deltagarna fick skapa ett alster som skulle berätta vad Affecto är för dem. Vi fick många härliga bidrag med fantastiska motiveringar. Två av bidragen stod ut lite extra och uppmärksammades under kvällen.  

Bild 1

Vår Sverige vd, Hellen Wohlin Lidgard hälsade alla välkomna och därefter följde en stationsrunda som gav en bild över våra affärsområden:

  • Business Analytics
  • Corporate Performance Management
  • Collaborative Business Intelligence
  • Data Management

 
Lite senare under kvällen följde två inspirerande presentatoner:

  • Hellen Wohlin Lidgard, vd Affecto Sweden, berättade om Big Data och framtidens möjligheter med Business Intelligence
  • Mattias Tyrperg, CEO & Grundare av Saplo, berättade om hur man omvandlar ostrukturerad data till värdefull information.
Bild2

Kvällen rundades av med en prisutdelning. Ett stort grattis till vinnarna som gick hem med vars en chokladask och en workshop om en nulägesanalys för sina respektive bolag.

Klicka på länkarna nedan för att ladda ner presentationerna från kvällen

Taggar:

Dela / Kommentera »

Kategori:
Trender

Tags:

Öppet hus hos Affecto i Stockholm

Skrivet av: Carin Paulsson 31.10.2013 21:33 | Kategori: Trender | 0 Kommentarer

Runt nittio personer kom och lyssnade, minglade och inspirerades på vårt Öppet hus i Stockholm.

Vår Sverige VD Hellen Wohlin Lidgard hälsade oss alla välkomna och inledde kvällen med att prata om Big Data och framtidens möjligheter med Business Intelligence.

Därefter kunde man välja mellan två parallella spår.
1. Jesper Persson, Director Professional Services, berättade om värdet med att kombinera Business Intelligence plattformen med samverkansverktyg.
2. Jørn Ivar Fjeldstad, Executive Advisor Affecto Norway, gav sin framtidssyn och berättade om sina tankar kring Data Warehouse

Mingelbilder

Våra samarbetspartners från SAP, IBM, Informatica och Oracle var på plats och var populära på ”mingelgolvet”.

Kvällen rundades av med en prisutdelning med tre lyckliga vinnare av vars en flaska Champagne. Ett stort grattis till Nkatya, Josefin och Jessica.

Klicka på länkarna nedan för att ladda ner presentationerna från kvällen

Taggar:

Dela / Kommentera »

BI så in i Norden - står vi och stampar?

Skrivet av: Daniel Rexed 16.10.2013 14:26 | Kategori: Trender | 0 Kommentarer

Affecto har frågat sina kunder vad de satsar på, och vad de kommer att satsa på när det gäller Analytics och Information Management. Det som slår mig är att den klassiska rapporteringen - Reporting - fortfarande står högst upp på alla listor. Knappt 90% av kunderna har förbättrat rapporteringen under de senaste 2 åren, och lika många kommer att jobba vidare med rapporteringen de kommande 2 åren. Detta skiljer sig inte nämnvärt från den undersökning som Affecto gjorde 2010. Den klassiska rapporteringen är och kommer fortsättningsvis att vara en hörnpelare inom BI.

Vad är det som är nytt sedan förra undersökningen?

Jo:

  • Arbetet med BI-strategier och BI-styrning - governance - har fördubblats från en tredjedel till två tredjedelar
  • Analys - Advanced Analytics - kommer starkt. Över hälften av de tillfrågade kunderna har arbetat med området under de senaste två åren, och mer än 75% av dem kommer att arbeta med att förbättra analysen de kommande två åren
  • Big Data kommer starkt! Nästan 60% av kunderna kommer satsa på området inom de kommande två åren
  • Datakvalitet - Data Quality and Data Governance - är en het fråga! Två tredjedelar av kunderna arbetar redan med det, och 85% av de svarande kommer att arbeta med området under de kommande två åren

Vad betyder en sån här undersökning?

Vi får svart på vitt vad som är i fokus inom Information Management i Norden. Det ger programvaruleverantörerna en idé om vad de ska fokusera på. Det ger användarna - våra kunder - en bild av vad "de andra" jobbar med. Och sist men inte minst ger det oss konsulter bra feedback på att vi satsar på rätt saker, för vi passade också på att fråga om kunderna var nöjda med resultatet av sina satsningar, och det är de!

Affecto och Big Data: http://www.idg.se/2.1085/1.524768/big-data-briserar?queryText=big

Hämta rapporten här: http://www.affecto.se/Kunskapsbank/Affecto-Nordic-Survey-2013

Taggar: Nordic Survey , information management , Affärsnytta , Business Analytics , Analys , big data , Trender

Dela / Kommentera »

Var finns miljonerna i kundinformationen ?

Skrivet av: Ola Wallinder 24.9.2013 17:42 | Kategori: Beslutsstöd | 0 Kommentarer

Många företag har implementerat avancerade CRM system och har hundratals- eller tusentals användare. Besluten har ofta föregåtts av business case baserade på ökad kundlönsamhet med stora belopp. Det vi ser är dock att många företag inte lyckas realisera miljonera.  Var finns dem ?

Datakvaliteten

Väldigt ofta är det datakvaliteten som sätter käppar i hjulet. Det brister i de grundläggande aktiviteterna att lägga upp och underhålla kundinformation. Användarna behöver kanske inte tänka på datakvaliteten eller betydelsen av att lägga till mer kundinformation för att utföra sina arbetsuppgifter.  Uppföljning och styrning sker på parametrar som inte gynnar det totala kundengagemangen (i andra processer) -  tex genom fokus på tidseffektivitet istället för kundlönsamhet.

Förändringsresan

Den ”goda” resan framåt kräver datakvalitet i kritiska aktiviteter och en styrning till att mäta och dagligen förbättra datakvaliteten. Ägarskap behöver fastställas och ett gemensamt ansvar behöver tydliggöras för både verksamhet och IT. Med detta kan förtroendet öka och de goda exemplen visas, vilket gör att användarna fokuserar på att förbättra sitt CRM system och slutar att söka alternativa lösningar. Genom det ”goda arbetet” med datakvalitet förbättras inte bara data, utan även processer och CRM system får en positiv utveckling.

Det egentliga värdet

Var finns då miljonerna ? Ofta tror vi att vi ska hitta det mesta i effektivare processer och minskade kostnader. Ibland finns det också tydliga värden att realisera i form av intäkter som vi tidigare inte har kunnat fakturera.

Erfarenhet visar dock att de riktigt stora värdena finns i att förbättra hela kundlivscykeln där kundens upplevda kvalitet ökar, möjligheterna till up-sell och cross-sell kan realiseras och analytiska förmågan ökar så att träffsäkerheten ökar markant i rätt kunder med rätt erbjudande.

Miljonerna i kundinformationen finns där datakvaliteten är hög  och den ”goda” resan förstärker CRM visionen i en positiv utveckling.

Är du intresserad av att veta mer om Datakvalitet och hur man kommer igång och jobbar med det? Då ska du lyssna på vårt Webinar om Datakvalitet och Master Data som sändes den 18 september: Klicka här

Taggar: CRM data quality datakvalitet master data business case

Dela / Kommentera »

Affecto is the largest Business Intelligence solution provider in the Nordic countries. We help our customers to improve productivity and competitiveness by superior use of information for decision making. We build IT solutions that enable organizations to integrate their strategic targets with their business management. Affecto also delivers operational solutions for improving and simplifying processes at customer organizations and offers geographic information services (GIS). Affecto offers Business Intelligence solutions in its operating areas in the Nordic and Baltic countries. In operational solutions, the company has a presence in Finland and in the Baltic region