Aracılığıyla paylaş


Veri akışı görev

Veri akışı görev veri kaynaklarının ve hedeflerinin arasında taşır ve dönüştürme, temiz ve onu hareket ettirildikçe verilerini değiştirmek sağlar veri akışı altyapısı içinde saklar.Veri akışı görev bir paket denetim akışı için toplama paketi ayıklamak dönüştürmek ve veri yüklemek mümkün kılar.

En az bir veri akışı bileşeni veri akışı oluşur, ancak bu genellikle bağlı veri akışı bileşenleri küme: kaynakları, ayıklamak veri; değiştirme, dönüştürme yol, ya da; özetlemek ve veri yüklemek hedefler.Veri akışı bileşenleri yolları tarafından bağlı.Her yol başlangıcı ve sonu olan iki bileşenleri belirtir yol.Daha fazla bilgi için bkz: Veri akışı öğeleri.

Çalışma sırasında saat, veri akışı görevin yürütme planı veri akıştan oluşturur ve plan veri akışı altyapısı yürütür.Herhangi bir veri akışı içeren veri akışı görevi oluşturabilirsiniz, ancak yalnızca en az bir veri akışı içeriyorsa bu görevi yürütür.

Aşağıdaki diyagramda, bir veri akışı içeren veri akışı görevi gösterir.

Veri akışı

Birden çok veri akışlarının veri akışı bir görev ekleyebilirsiniz.Bir görevi birden çok veri kümelerini kopyalar ve verilerin kopyalandığı siparişi önemli değilse, birden çok veri akışlarının veri akışı görev eklemek daha uygun olabilir.Örneğin, beş veri akışları, her kopyalama veri düz bir dosyadan farklı bir boyut oluşturabilirsiniz tablo bir veri ambarı yıldız şeması.

Ancak, birden çok veri akışı içindeki veri akışı görevi olduğunda veri akışı altyapısı yürütme sırasını belirler.Sırası önemlidir, bu nedenle, paket birden fazla veri akışı görev içeren bir veri akışı görev kullanmanız gerekir.Daha sonra görevleri yürütme sırasını denetlemek için öncelik kısıtlamaları uygulayabilirsiniz.

Aşağıdaki diyagramda birden çok veri akışlarının veri akışı bir görev gösterir.

Veri akışları

Birden çok veri akışı görevleri paketi içerebilir ve karmaşık paket sık yapın.Örneğin, paket veri akışı belirtilen sırayla çalıştırılması gerekir veya diğer görevler arasında veri akışları gerçekleştirilmesi her veri akışı için ayrı bir veri akışı görev kullanmalısınız.

Veri akışı görev hata akışı da yönetir.Çalışma sırasında saat, veri bileşenleri convert veri akışı, bir arama gerçekleştirmek veya deyimleri satır düzey hatalar oluşabilir.Örneğin, bir veri sütununu içeren bir dize değeri bir tamsayıya dönüştürülemez veya bir ifade sayıyı sıfıra bölmeye çalışır.İki işlem de hatalara neden ve hata içeren satırları ayrı ayrı bir hata akışı kullanılarak işlenebilir.Paket veri akışı hata akışı kullanma hakkında daha fazla bilgi için bkz: Veri akışı içinde hataları işleme.

Bulk INSERT veri metin dosyalarından bir SQL Server veritabanı, veri akışı görev ve bir veri akışı. yerine Bulk INSERT görev kullanabilirsinizBununla birlikte, veri Bulk INSERT görev dönüştüremezsiniz.Daha fazla bilgi için bkz: BULK INSERT görev.

Veri akışı öğeleri ile özelliği ifadeleri kullanma

Çok sayıda veri akışı bileşenleri — kaynakları, Dönüşümleri ve hedefleri — bazı özelliklerini özellik ifadeleri kullanımını destekler.Özellik ifade paket yüklü değilse, özellik değerinin yerini alan bir ifadesidir.Çalışma sırasında saat, paket güncelleştirilen özellik değerlerini kullanır.İfadeler kullanılarak oluşturulan Integration Services ifade sözdizimi ve Integration Services işlevleri, işleçlerin, tanımlayıcıların ve değişkenleri.Daha fazla bilgi için bkz: Integration Services İfadesi Başvurusu, Paketlerinde ifadeleri kullanma, ve Paketlerinde özelliği ifadeleri kullanma.

Oluşturursanız, bir paket , Business Intelligence Development Studio, ait oldukları bir veri akışı görev özelliklerini özellik ifadeleri destekleyen herhangi bir veri akışı bileşenleri sunulmuştur.Ekleme, değiştirme, özellik ifadeleri veri akışı bileşenlerini kaldırmak, veri akışı görev'i tıklatın ve sonra eklemek için Properties penceresini veya görev Düzenleyicisi'ni kullanın, değiştirmek veya silmek özelliği ifadeler.Veri akışı görev için kendisini özelliği ifadeler Properties penceresinde yönetilir.

Deyimleri veri akışı ifadeleri kullanan bileşenler içeriyorsa, Properties penceresinde maruz kalır.İfadeleri görüntülemek için bileşenin ait olduğu veri akışı görevi seçin.Kategorilere göre ya da alfabetik olarak özelliklerini görüntüleyebilirsiniz.Properties penceresinde sınıflandırılmış görünümü kullanıyorsanız, belirli bir özellik kullanılan tüm ifadeleri listelenen çeşitli kategori.Alfabetik görünümü kullanıyorsanız, ifadeler adını sırayla listelenir veri akışı bileşeni.

Günlük girişleri

Integration Services provides a set of log events that are available to all tasks.Integration Services also provides custom log entries to many tasks.Daha fazla bilgi için bkz: Uygulama paketlerinde günlüğü ve Özel günlük iletileri. Veri akışı görev aşağıdaki özel günlük girdisi içerir:

Günlük girdisi

Açıklama

BufferSizeTuning

Veri akışı görev arabellek boyutu değiştirildi gösterir.Günlük girdisi boyutu değişikliği nedenleri açıklanır ve yeni geçici listeler arabellek boyutu.

OnPipelinePostEndOfRowset

Bir bileşen son çağrı tarafından küme, satır küme küme sonu sinyal verilmiş gösterir ProcessInput yöntem.Her bileşeni için bir girdi yazılır veri akışı giriş işlemleri.Giriş bileşenin adını içerir.

OnPipelinePostPrimeOutput

Bileşenin son çağrı tamamlandığını bildiren PrimeOutput yöntem.Bağlı veri akışı, birden çok günlük girdilerini yazılabilir.Bileşeni bir kaynak ise, bu günlük girdisi bileşeni işlem satırları tamamladı anlamına gelir.

OnPipelinePreEndOfRowset

Bir bileşen son çağrı tarafından küme, satır küme küme sonu sinyal almaya olduğunu ProcessInput yöntem.Her bileşeni için bir girdi yazılır veri akışı giriş işlemleri.Giriş bileşenin adını içerir.

OnPipelinePrePrimeOutput

Bileşenin kendi çağrısından almaya olduğunu PrimeOutput yöntem.Bağlı veri akışı, birden çok günlük girdilerini yazılabilir.

OnPipelineRowsSent

Bir bileşen giriş için yapılan bir çağrı tarafından sağlanan satır sayısı bildiriyor ProcessInput yöntem.Günlük girdisinin, bileşen adı içerir.

PipelineBufferLeak

Arabellek Yöneticisi kaybolduktan sonra arabellek canlı tutulan bileşeni hakkında bilgi sağlar.Bir arabellek çalışır durumdaysa arabellekleri kaynakları yayımlanmış olan ve bellek sızıntıları neden olabilir.Bileşenin adını ve Kimliğini tampon Kütüğü Girişi sağlar.

PipelineComponentTime

Miktarını bildirir saat (milisaniye cinsinden) bileşeni her beş kendi ana işleme adımlarını harcanan — doğrula, PreExecute PostExecute, ProcessInput ve ProcessOutput.

PipelineExecutionPlan

Veri akışı yürütme planı bildirir.Yürütme planı arabellekleri bileşenleri için nasıl gönderileceği hakkında bilgi sağlar.PipelineExecutionTrees günlüğü girişi ile birlikte bu bilgiler, veri akışı görev içinde neler olduğunu açıklar.

PipelineExecutionTrees

Veri akışı düzenini yürütme ağaçları bildirir.Veri akışı altyapısı Zamanlayıcı ağaçları veri akışı yürütme planı oluşturmak için kullanır.

PipelineInitialization

Görevle ilgili başlatma bilgileri sağlar.Bu bilgiler, blob verileri, varsayılan arabellek boyutu ve bir arabelleğindeki satır sayısını geçici depolama için dizinleri içerir.Bağlı yapılandırma birden çok günlük girdilerini veri akışı görev yazılabilir.

Bu günlük girdileri yürütme her saat veri akışı görev hakkındaki bilgileri paket çalıştırmak çeşitlilikte sağlar.Paketleri tekrar tekrar çalıştırmak gibi saat içinde önemli tarihsel bilgi sağlayan görev gerçekleştirir işlem performansı etkileyebilecek sorunlar ve işleme görev veri birimi hakkında bilgileri yakalayabilir.

Bu günlük girdileri izlemek ve veri akışı performansını artırmak için nasıl kullanılacağı hakkında daha fazla bilgi için aşağıdaki konulardan birini bakın:

Örnek iletileri veri akışı görev

Aşağıdaki tablo örnek çok basit bir paket için günlük girdileri iletileri listeler.Verileri sıralamak için sıralama dönüştürme tablodan veri ayıklamak için bir ole db kaynak paket kullanır ve verileri bir ole db hedef için farklı bir tablo yazar.

Günlük girdisi

İletileri

BufferSizeTuning

Rows in buffer type 0 would cause a buffer size greater than the configured maximum. There will be only 9637 rows in buffers of this type.

Rows in buffer type 2 would cause a buffer size greater than the configured maximum. There will be only 9497 rows in buffers of this type.

Rows in buffer type 3 would cause a buffer size greater than the configured maximum. There will be only 9497 rows in buffers of this type.

OnPipelinePostEndOfRowset

A component will be given the end of rowset signal. : 1180 : Sort : 1181 : Sort Input

A component will be given the end of rowset signal. : 1291 : OLE DB Destination : 1304 : OLE DB Destination Input

OnPipelinePostPrimeOutput

A component has returned from its PrimeOutput call. : 1180 : Sort

A component has returned from its PrimeOutput call. : 1 : OLE DB Source

OnPipelinePreEndOfRowset

A component has finished processing all of its rows. : 1180 : Sort : 1181 : Sort Input

A component has finished processing all of its rows. : 1291 : OLE DB Destination : 1304 : OLE DB Destination Input

OnPipelinePrePrimeOutput

PrimeOutput will be called on a component. : 1180 : Sort

PrimeOutput will be called on a component. : 1 : OLE DB Source

OnPipelineRowsSent

Rows were provided to a data flow component as input. : : 1185 : OLE DB Source Output : 1180 : Sort : 1181 : Sort Input : 76

Rows were provided to a data flow component as input. : : 1308 : Sort Output : 1291 : OLE DB Destination : 1304 : OLE DB Destination Input : 76

PipelineComponentTime

The component "Calculate LineItemTotalCost" (3522) spent 356 milliseconds in ProcessInput.

The component "Sum Quantity and LineItemTotalCost" (3619) spent 79 milliseconds in ProcessInput.

The component "Calculate Average Cost" (3662) spent 16 milliseconds in ProcessInput.

The component "Sort by ProductID" (3717) spent 125 milliseconds in ProcessInput.

The component "Load Data" (3773) spent 0 milliseconds in ProcessInput.

The component "Extract Data" (3869) spent 688 milliseconds in PrimeOutput filling buffers on output "OLE DB Source Output" (3879).

The component "Sum Quantity and LineItemTotalCost" (3619) spent 141 milliseconds in PrimeOutput filling buffers on output "Aggregate Output 1" (3621).

The component "Sort by ProductID" (3717) spent 16 milliseconds in PrimeOutput filling buffers on output "Sort Output" (3719).

PipelineExecutionPlan

SourceThread0

Drives: 1

Influences: 1180 1291

Output Work List

CreatePrimeBuffer of type 1 for output ID 11.

SetBufferListener: "WorkThread0" for input ID 1181

CreatePrimeBuffer of type 3 for output ID 12.

CallPrimeOutput on component "OLE DB Source" (1)

End Output Work List

End SourceThread0

WorkThread0

Drives: 1180

Influences: 1180 1291

Input Work list, input ID 1181 (1 EORs Expected)

CallProcessInput on input ID 1181 on component "Sort" (1180) for view type 2

End Input Work list for input 1181

Output Work List

CreatePrimeBuffer of type 4 for output ID 1182.

SetBufferListener: "WorkThread1" for input ID 1304

CallPrimeOutput on component "Sort" (1180)

End Output Work List

End WorkThread0

WorkThread1

Drives: 1291

Influences: 1291

Input Work list, input ID 1304 (1 EORs Expected)

CallProcessInput on input ID 1304 on component "OLE DB Destination" (1291) for view type 5

End Input Work list for input 1304

Output Work List

End Output Work List

End WorkThread1

PipelineExecutionTrees

begin execution tree 0

output "OLE DB Source Output" (11)

input "Sort Input" (1181)

end execution tree 0

begin execution tree 1

output "OLE DB Source Error Output" (12)

end execution tree 1

begin execution tree 2

output "Sort Output" (1182)

input "OLE DB Destination Input" (1304)

output "OLE DB Destination Error Output" (1305)

end execution tree 2

PipelineInitialization

No temporary BLOB data storage locations were provided. The buffer manager will consider the directories in the TEMP and TMP environment variables.

The default buffer size is 10485760 bytes.

Buffers will have 10000 rows by default

The data flow will not remove unused components because its RunInOptimizedMode property is set to false.

Birden çok girdi birçok günlük olayları yazmaya ve karmaşık veri iletileri için günlük girdilerinin sayısını içerir.Anlamak ve karmaşık iletilerin içeriklerini iletişim kurmak için kolaylaştırmak için ileti metni ayrıştırabilirsiniz.Günlükleri konumuna bağlı olarak, karmaşık metin sütunları ya da diğer biçimleri, daha kullanışlı ayırmak için Transact-sql deyimlerinin veya bir komut dosyası bileşeni kullanabilirsiniz.

Örneğin, aşağıdaki tablo içeren ileti "satırları giriş olarak bir veri akışı bileşeni için sağlanmıştır.:: 1185: ole db kaynağı çıkış: 1180 : Sıralama: 1181 : Sıralama giriş: 76 "sütunlara ayrıştırıldı.İleti tarafından yazılan OnPipelineRowsSent olay olduğunda satır gönderilen ole db kaynak için sıralama dönüştürme.

Column

Açıklama

Değer

PathID

Değeri ID özellik yol ve ole db kaynak arasında sıralama dönüştürme.

1185

Yol adı

Değeri Name yol özellik

ole db kaynağı çıkış

ComponentId

Değeri ID özellik, sıralama dönüştürme.

1180

BileşenAdı

Değeri Name özellik, sıralama dönüştürme.

Sıralama

InputID

Değeri ID sıralama dönüştürme için giriş özellik.

1181

InputName

Değeri Name özellik giriş için sıralama dönüştürme.

Sıralama giriş

RowsSent

Sıralama giriş için gönderilen satır sayısı dönüştürme.

76

Kaynaklar

Aşağıdaki kaynaklardan özellik ifadeler tarafından güncelleştirilen özelliklere sahiptir:

Daha fazla bilgi için bkz: Kaynak özel özellikleri.

Dönüşümleri

Hedefleri

Aşağıdaki hedefleri özellik ifadeler tarafından güncelleştirilen özelliklere sahiptir:

Daha fazla bilgi için bkz: Hedef özel özellikleri.

Veri akışı görev yapılandırma

Yapabilirsiniz küme özelliklerinde Özellikler penceresi veya program aracılığıyla.

Bu özellikleri küme hakkında daha fazla bilgi için Özellikler penceresinde, aşağıdaki konuyu tıklatın:

Veri akışı görev programlı olarak yapılandırma

paket ve veri akış özelliklerini ayarlamak için veri akışı görevi programlı olarak ekleme hakkında daha fazla bilgi için aşağıdaki konuyu tıklatın:

Integration Services simgesi (küçük)Integration Services ile güncel kalın

En son karşıdan yüklemeler, makaleler, örnekler ve seçilen topluluk çözümleri yanı sıra Microsoft videolar için ziyaret Integration Services sayfa msdn veya TechNet:

Bu güncelleştirmelerle ilgili otomatik bildirim almak için, sayfadaki RSS akışlarına abone olun.