Etiket Bulutu

Benchmark Convert_IMplicit Database High Availability Database Mirroring datawarehouse dimension table dmv Dynamic Data Masking Execution Execution Plans fact table Failover Cluster Node ekleme Failover Clustering FileStream generate script High Availability Implicit Instant File Initialization index Kinect Linux Live Query Statistics Log Shipping Mirroring object explorer object explorer details ODBC Driver pass performance performance tuning Plan Handle Planü Power View reporting services rol Row Level Security script sql serer 2016 sql server SQL Server 2008 SQL Server 2008 Log Shipping SQL Server 2012 SQL Server 2012 installation SQL Server 2012 Kurulumu SQL Server Backup SQL Server da Backup planı SQL Server da Maintenance Plans oluşturma SQL Server database mirroring SQL Server Disaster Recovery sql server dynamic management views SQL Server Failover Cluster SQL Server High Availability SQL Server Log Shipping SQL Server Maintenace Plans sql server performans SQLDIAG SQLDIAG Troubleshooting T24 Temenos truncate table t-sql unique index performance 1. Dünya savaşı istatistikleri 1456 451 ACID advanced analytics Advanced Data Analytics Affinity algı Alter index Alter table ALTER TABLE .. ALTER COLUMN Altın Oran Always On ALWAYSON AlwaysOnDemoTool amazon web services kinesis AMR analiz analysis service Ankara Antivirus apache kafka Arduino Article Assembly asymmetric audit Authentication Auto Growth Availability Group azure Azure Backup azure event hub partition azure event hubs azure event hubs servisi azure event hubs veri edinme Azure File Share Azure Fiyatlandırma Azure HDInsight Azure Hizmet Modelleri Azure ML Azure New Portal Azure Pricing Azure Queue azure sql database configuration azure sql database kullanımı azure sql database stream veriyi tutma azure sql database table partitioning Azure Storage azure stream analytics azure stream analytics dashboard azure stream analytics ölçeklendirilmesi azure stream analytics servisi Azure Table BA Backup backup encyrption backupset Bakım BASE bellek Best Practice BI Semantic Model Big Data Big User blocking blocking disable trigger blocking enable trigger Buffer Cache buffer pool Buffer Pool Extension bulk logged Buluta Veri Depolama Buluttaki Disk Business Analytics Conference business intelligence Büyük Veri Case Central Management Server certificate changed data capture Cloud Computing Cloud DR CLR Cluster clustered columnstore index Clustered Index Code Snippets Cold Purging collation column store column-level columnstore ColumnStore Indexes Compress ComputerNamePhysicalNetBIOS Concurrency Conditions Contained Database Contained Databases convert CONVERT_IMPLICIT Corruption Credentials cube DAC Dashboard Tasarımı data cleansing Data Compression Data Consistency Model data encryption data matching data mining Data Page data profiling data quality Data Services Data Warehouse Design Database database list Database Management Sistem database master key Database Mirroring Database Snapshot database trigger database-level Data-Ink Ratio datasets datasource DataZen date date dimension db_owner DBA DBCC dbcc dropcleanbuffers dbcc freeproccache DBMS dbo user DDL deadlock debugging DecryptByKey DecryptByPassPhrase deleted bitmap delta store Denali Denali SSAS deny database list deşifre detail index developer DIFFERENTIAL BACKUP DirectQuery Dirty Read Disaster Recovery Distribution Yapılandırma Distributor Distributor Agent dm_server_services DMF DMO DMV document db dosya bazlı şifreleme dqs dr Dynamic Management Function Dynamic Management Object Dynamic Management View ecrypt Effected Report Design Techniques Eğitim EncryptByKey EncryptByPassPhrase encryption endpoint Environment Variable error Error 5030 Error Log Estetik Raporlama Estimated Rows Eş Zamanlılkk Etkili Rapor Tasarlama Teknikleri Etkinlik ETL event Event Viewer except;intersect;sql execution Execution Plan export formats extended events Extended Stored Procedure Facets Failover Failover Cluster fast n execution plan FETCH NEXT FILELISTONLY FILLFACTOR File Table file-level FileStream Filter Pack Filtered Index First_Value Flat File fn_repl_hash_binary Focal Point foreignkey FORMAT Forwarded Record forwarded_record_count ftp task FULL BACKUP Full Recovery Full-Text Search functions Gartner Geocluster Gerçek Zamanlı Dashboard gestalt Golden Ratio görsel duyu group by Güvenlik ha Hadoop hafıza Hash HASHBYTES HEADERONLY headers footers Heap Hekaton hicri High Availability hijr Hiyerarşi Hybrid Cloud IaaS Index Index Scan In-Memory InMemory DW In-Memory DW InMemory OLTP In-Memory OLTP Internet of People Internet of Things IO IOT IoT nedir Isolation Level indeks index inmemory in-memory oltp internet of things isolation level istatistik istatistikler İş zekası İzolasyon Seviyesi Job json json support knowledge base kolon-satır bazlı kurulum küp Lag Lansman latch Lead linked server lock locking locking hints Log Backup Log Reader Agent Log Shipping login Lost-Update LQS Machine Learning Maintenance Management Studio matrix Max Text Replication Size mdx memory Memory Optimization Advisor Memory Optimized Table Memory Optimized Tables merge Merge Agent merge kullanımı Merge Publication Merge Replication merge type 1 slowly changing dimension merge type 1 slowly changing dimension örneği merge type 1 vs type 2 scd merge type 2 slowly changing dimension merge type 2 slowly changing dimension örneği merge type 3 slowly changing dimension merge type 4 slowly changing dimension message Microsoft Advanced Data Analytics Çözümleri microsoft azure Microsoft Bulut Microsoft Sanal Akademi Microsoft SQL Server Microsoft SQL Server 2014 Yenilikleri Microsoft SQL Server 2016 Mirror mirroring missing index Monitoring move Msdb multi_user multiversion concurrency control MVP MVP Roadshow MySnippet Named Pipes Natively Store Procedures Natively Stored Procedures Nesnelerin İnterneti Network Binding Order NoEngine Approaches nonclustered columnstore index Non-Repetable Read NoSQL NoSQL Approaches NoSQL Dünyası object explorer Odak Noktası ODBC Office 365 Offline OFFSET olap OLAP Backup OLE DB OLTP Online Index order attributes Otomatik Büyüme OVER PaaS PAD_INDEX page out page properties PAGE RESTORE PAGEIOLATCH paging parameters partition partitioning PASS PASS Summit PASS Summit 2014 Performance Performance Tuning performans performans tuning Phantom Read pivot Policies Policy Based Management Filtreleme Policy Management Power BI Power BI Dashboard Power BI Rest API power bi power view PowerBI PowerBI for Office 365 powerbi PowerMap PowerPivot PowerQuery powershell powershell ile sql yönetimi PowerView PowerView raporlarının web sayfalarına gömülmesi precon Primary Key primarykey Project Deployment Model Project Variable Protokol Proxy Proxy Account Publisher Purging on Independent Tables QL Server 2014 Yenilikleri Que Reader Agent Query Plan query store R Range Raporlama Raporlama Projeleri için Strateji Belirleme Raporlama Projelerine Hazırlık Read Committed Read Uncommitted RealTime Dashboard Rebuild RECONFIGURE RECONFIGURE WITH OVERRIDE Recovery model Relational Engine relationships Rename SSRS Database Repeatable Read Replication Replication Monitoring replikasyon report manager web site report parts reporting service reporting services reporting servis Resource Governor RESTORE Restore Database Restore Generate Restore Generate Script Restore transaction log rollback rs Rule of Thirds sa user SaaS sayfalama scd 3 demo scd karşılaştırma scd type 4 demo Scheduling Schema Comparison script Security segment elimination select into Self-Service BI Semantic Search Serializable Server Core SERVERPROPERTY Service services shared data sources shared datasets Shared Memory sharepoint Sharepoint 2010 ShowPlan Shrink simple recovery sing_user sliding window Slowly Changing Dimension snapshot Snapshot Agent Snapshot Publication Snapshot Replication Snippet snowflake sorting sp_configure sp_describe_first_result_set sp_server_diagnostics sp_spaceused sql SQL Agent Job SQL Azure sql bilgi yarışması SQL CLR SQL DIAG SQL DIAG Performans verisi toplama SQL endpoint SQL Login SQL Onculeri SQL Öncüleri sql script sql server SQL Server 2005 SQL Server 2008 SQL Server 2011 CTP3 SQL Server 2011 Denali SQL Server 2012 SQL Server 2012 CTP3 SQL Server 2012 RC SQL Server 2012 RC0 SQL Server 2012 ShowPlan Enhancements SQL Server 2012 T-SQL Enhancements SQL Server 2014 Sql Server 2014 Cardinality Estimator SQL Server 2014 Yenilikleri sql server 2016 SQL Server 2016 New Features SQL Server 2016 Yenilikleri sql server agent sql server assembly ekleme SQL Server Authentication sql server cast ve convert sql server clr integration sql server clr kullanımı sql server clr örnek sql server cluster SQL Server Code Name Denali SQL Server da Kullanıcı Yaratma SQL Server Database Project sql server dmv ve dmf sql server execution plan temizleme SQL Server Express Backup sql server fast n option örneği sql server fast n seçeneği SQL Server login sql server management stdio sql server merge into örnek sql server merge komutu sql server merge performnas sql server merge type 1 scd sql server merge type 2 scd sql server merge type 3 scd SQL Server Mobile Report Publisher SQL Server Network Interface SQL Server Onculeri SQL Server Öncüleri SQL Server Öncüleri Ankara SQL Server Performance sql server performans SQL Server Profiler SQL server recovery model SQL Server Reporting Services SQL Server Restore Generate Script SQL Server sa SQL Server Security SQL Server SQL DIAG sql server tarih dönüşüm işlemi sql server tarihsel veriler ile çalışma SQL Server User SQL Server yetki SQL Server yetkilendirme sql servera .net kodu ekleme SQL Serverda yetkilendirme nasıl SQL Serverda yetkilendirme nasıl yapılır sql to oracle linked server sql türkiye SQL User With Password sql yarışma SQLCMD sql'den oracle'a linked server SQLDIAG SQLDIAG Report SQLOS sqlsaturay SQLSaturday SQLSaturday #182 SQLSaturday #359 sqlsaturday #451 sqlserveronculeri ssas SSAS 2012 SSIS SSIS 2012 ssis SSMS SSMS Project SSMS Solution ssrs Stanby Database star schema STOPAT STOPBEFOREMARK STORAGE Storage Engine stored procedure stream analytics job subreports Subscriber Subscription subscriptions symmetric SYS sys.dm_db_index_physical_stats sys.dm_db_index_usage_stats sys.dm_db_missing_index_columns sys.dm_db_missing_index_details sys.dm_db_missing_index_group_stats sys.dm_db_missing_index_groups sys.server_principals sysadmin System Databases System View şifre şifreleme table table difference TableHasClustIndex TableHasIdentity TableHasPrimaryKey Tablet PC Tabular Mode Tabular Model TCP/IP TDE Tempdb time series Transaction Transactional Publication Transactional Replication Transparent Data Encryption trigger Troubleshooting TRY_CONVERT TRY_PARSE tsql t-sql T-SQL 2012 tsql mistakes Undocument union unionall Updatable ColumnStore İndex upgrade Veri ambarı veri edinme seçenekleri Veri Güvenliği Veri Hizmetleri Veri madenciliği Veri Mürekkep Oranı Veri Tabanı Yönetim Sistemleri Veri Tipi Veri Tutarlılık Modelleri Veri Yönetimi Evrimi verinin evrimi Veritabanı oluşturmak VERİTABANI YEDEKLEME STRATEJİLERİ veritabanı yedeklerinin şifrelenmesi Veritabanı Yöneticisi Veritabanı Yönetimi VeritPaq view any database Visual Studio VTYS web services Webcast Windows 7 Windows 8 Windows Authentication Windows Azure Windows Failover Clustering wmi WRITELOG xevents xp_sqlagent_enum_jobs YEDEKLEME STRATEJİLERİ Yedekli Çalışma Yetkilendirme Yiğit Aktan ysfkhvc yusuf kahveci Yüksek Erişilebilirlik Yüksek Süreklilik zip

Data Quality

Ekleyen: Koray Kocabaş YemekSepeti Senior BI Developer Tarih:04.02.2014 Okunma Sayısı:3305


Business Intelligence projelerini fazlandırırsak sanırım yönetim seviyesinin en bilmediği fakat BI developerların en çok zaman harcadığı ve hakikaten kimi durumlarda mühendislik yaptığı kısmın data warehouse oluşturulduğu bölüm olduğunu söyleyebiliriz. ETL süreçleri ile yönlendirilen Data Warehouse bölümü aslında tamamen Business Intelligence projelerinin icebergin su altında kalan kısmı gibidir. Kimse görmez kimse bilmez. Görülen kısım Reporting Services ve Analysis Services gibi kısımlardır aslında.
 
Fakat bir Business Intelligence projesinin sürdürülebilirlik düzeyinin belki de en büyük göstergesi ETL süreçleridir. İki BI projesi ele alalım bunlardan ilki ETL sürecini olabildiğince çabuk ve verimsiz geçirmiş olsun. Fakat üst faza baktığımızda proje tıkır tıkır çalışıyor. Üç yıl sonrasına gidelim. Şirketimizin sürecinde küçük bir değişiklik oldu ve bunu bizim raporlamamız talep edildi. Sırasıyla Reporting Services’te değişiklik, OLAP küplerinde değişiklik ve ETL paketlerinde değişiklik yapmamız gerekecek. Öte yandan aslında birçok hesaplanmış alanı ETL fazında gerçekleştirmemiz gerekirken reporting service üzerinde gerçekleştirdiğimiz için ilk başta daha az adam/saat maliyeti ile karşımıza çıkan proje sürdürülebilirliği sağlamak adına astarı yüzünden pahalıya gelecek.
 
Bu icebergin altındaki bir sorundu. Günümüzde ise aslında hep varolan ama şimdilerde daha da önem kazanan bir sorun karşımıza çıktı. Veri Kalitesi. Günü kurtarmak adına es geçilen kurallar, developerların joinli sorgulama maliyetlerinden kaçınarak yaptıkları (açtıkları) kara noktalar, birçok uygulamanın aynı datayı (kişisel bilgiler gibi) kendi içlerinde farklı formatta tutması ve bunun gibi birçok sorundan dolayı Business Intelligence projeleri geliştirilip ilk yayınlarına çıktıktan sonra şirketlerin mevcut süreçlerini denetleyen yapılar gibi davranmaya başladılar. Çünkü veri manipulasyonu olmayan BI projelerinde kimi durumlarda eksik süreç veya eksik veriler kaba tabirle kabak gibi ortaya çıkmakta. Hal böyle olunca dön başa iş süreçlerini değiştir, yazılımlarını güncelle gibi aslında tekrar bir süreç değişikliğine gidilmekte. Bunların genelde en ama en temel sebebi ise veri kalitesi. BI projelerinde yaşanan sıkıntıların başında aslında developerların kimi zaman günü kurtarmak adına yaptıkları free text alanlar gelmekte. İnsan müdahalesine en açık olan bu alanlar hesaplamada ciddi sıkıntı yaratıyor.
 
Bu sebeple şirketlerde genelde BI projeleri belirli bir olgunluğa geldikten ve aslında insanlar verilerden yaka silkmeye başladıktan sonra Data Quality projeleri işin içine girmeye başlıyor. BI projelerinin temel prensibi Single Version Of Truth. Michael Sharpe’nin Temmuz 2011 de Information Week için kaleme aldığı Mastering Data Integration isimli raporda bilgi yönetimi projelerinin başarısızlık nedenlerinden bahsetmiştir. Raporda yapılan araştırmaya göre karşılaşılan en büyük engeller sıralamasında birinci sırada doğru ve güvenilir veriye ulaşma problemi karşımıza çıkmaktadır. Günü kurtarmak için geliştirilen modüller bir süre sonra şirketin süreçlerinde kemikleşmeye başlamaktadır. Genelde zihniyet “çalışıyorsa dokunma” veya zaten bu şu anda çalışıyor yapmamız gereken diğer acil durumlara eğilelim sonrasında bakarız tarzında olunca o günü kurtaran modül yıllar sonra dahi sıkıntı yaratsa ve ihtiyaçları karşılayamaz hale gelse de yaşamına devam etmektedir. Onun üzerine geliştirilecek modullerde de developer çeşitli sebeplerden dolayı (aciliyet, mevcut yapıyı anlayamama, mevcut yapının tekrar geliştirilebilmeye açık olmaması vs.) yeni kısımlar açarak yoluna devam edince karşımıza iki büyük sıkıntı çıkmaktadır. 1) Verilerin tekil olmaması 2)Know how eksikliği.
 
Aynı raporda ikinci madde ise dataların entegre edilememesi sıkıntısı. Bu özellikle çok uluslu şirketlerde karşımıza sıklıkla çıkan bir yapıdır. Şöyle ki her bir süreç için farklı veri tipleri farklı teknolojiler kullanıldığında bunların entegrasyonu ciddi maliyet yaratabilmektedir. Örneğin finans verilerinizin SAP, satış bilgilerinizin Siebel, web bilgilerinizin Omniture, Operasyon bilgilerinizin Oracle, malzeme yönetim bilgilerinizin şirket içerisindeki SQL Server, küçük anlık uygulamalarınızın SQL Azure, CRM bilgilerinizin Salesforce, mail bilgilerinizin postgresql, en büyük partnerınızın bilgilerinin ise DB2 üzerinde tutulduğunu düşünün. Bunlarda aslında birçok platformda birbirinin eşleniği (userID, Transaction ID vb.) bilgiler var. Fakat entegrasyon çözümleri bu gibi durumlarda ciddi maliyet yaratmakta. Neden böyle bir yapıya gidildiği ise bu yazının konusu değil. Fakat yukarıdaki senaryoda da aslında en büyük sıkıntı kaliteli veri Çünkü her platformda da aynı bilgiler yer alsa dahi farklı tipte saklanabiliyor olabilir. Bir müşteri bilgisi düşünün. Bir veritabanında CustomerID, bir veritabanında email, başkasında T.C. Kimlik no ile tekilleştirilmeye çalışılıyorsa burada veri kaybı olabilir veya kaliteli veri elde etmenin maliyeti yüksek olabilir. Rapordaki üçüncü başarısızlık nedeni de verilerin temizliği ve tekilleştirilmesi. Başka bir bölümde ise BI projelerine giriş bariyerleri ile ilgili araştırma yapılmış ve karşımıza en yüksek oranda sıkıntının Data Qualify Problemleri olduğu çıkıyor. Sıfırdan bir proje geliştirmek yerine evcut projeyi güncellemek genellikle daha büyük sorun çıkartır başımıza ve veri kalitesi ile ilgili projeler her zaman ikinci senaryoda karşımıza çıkan durumlar. Herşeyi bir kenara bırakın ve aslında her şirketin aldığı iletişim bilgileri formunu bir düşünün. Sadece bir alan üzerine yoğunlaşmanızı istiyorum. Karşımıza text box olarak çıkartılan telefon numarası alanının ne kadar farklı şekilde kullanıcı tarafından giriş yapılacağını hayal edin. Bu alan üzerinde bir hesaplama yapmak dahi kimi zaman bizler için bir kabusa dönüşebiliyor. 
 
Mastering Data Integration raporunu daha detaylı incelemek isteyenler için raporu yükledim. https://app.box.com/s/xodk9f2iy6sbpyjc1ois  Adresinden indirerek inceleyebilirler.
 
Yazılım geliştirilirken genellikle gözardı edilen verilerin düzgün formatta gelmesi sonrasında başımıza iş açmasının ötesinde artık ciddi bir iş alanı oldu. 2011 sonunda 950 milyon dolarlık bir iş hacmine ulaşan Data Quality sektöründeki öncü firmalar ise aşağıdaki gibidir. 
 
 
Gartner’ın Ağustos 2012’de yayınlamış olduğu Magic Quadrant for Data Quality Tools raporunu buradan indirerek inceleyebilirsiniz. https://app.box.com/s/ztpvawbeq0x4nbt8qu0p
 
Peki herhangi bir üçüncü parti ürün alınmadan veri kalitesi ile ilgili bir çalışma SQL Server üzerinde yapılamıyor mu? 
 
SQL Server’ın aslında bir süredir hayatımızda olan ürünü Data Quality Services tam olarak bu işe yarıyor. Elbette daha alması gereken yol var Gartner’ın Magic Quadrant’ında kendisine yer edinebilmesi için. Buna rağmen aslında belirlediğimiz kurallar formatlar ile ihtiyaçlarımızın büyük bir çoğunluğunu karşılıyor diyebiliriz. Peki Data Quality Services (DQS) öncesinde veri temizliğini nasıl yapıyorduk? Öncelikle oltp yapılarımızda referans tablosu oluştur ve bunu baz alarak işlem yap mantığı vardı. Yani aslında ara tablolar ile join işlemi yaparak verileri kaliteli bir hale getirmeye çalışıyorduk. Bu plaka kodu yazan şehri bularak onun veritabanında karşılık gelen ID’sini bulma konusunda çalışabilir bir yapı. Fakat her zaman referans tablomuz olmayabilir veya olduğunda eş gelmeyebilir. Bununla ilgili ise SSIS bileşenlerinden Fuzzy Lookup ve Fuzzy Grouping kullanılabilir. 
 
Öte yandan verinin ilk halini tablom ne durumda diye sorgulamak için ise SSIS Data Profiling kullanılabilir. Data Profiling ile ilgili yazımızı buradan okuyabilirsiniz. http://www.sqlserveronculeri.com/1/Article/517/ssis---data-profiling-task.aspx
 
Bu yazımızın devamında DQS ile ilgili tanımlamalarla devam edeceğiz.
 

yorum yaz

Üye Girişi

Kullanıcı Adınız

Şifreniz

Şifremi Unuttum

Arkadaşına Tavsiye Et

Tavsiye edebilmek için siteye giriş yapmalısınız