فشرده سازی تصویر چیست؟

فشرده‌سازی تصاویر، کاربردی از فشرده‌سازی اطلاعات بر روی تصاویر دیجیتال است به عبارتی هدف از این کار کاهش افزونگی (redundancy)محتویات عکس می‌باشد برای توانایی ذخیره کردن یا انتقال اطلاعات به فرم بهینه .

فشرده سازی عکس می تواند بصورت بدون اتلاف و پر اتلاف صورت گیرد. فشرده سازی بدون اتلاف گاهی اوقات برای بعضی عکس‌ها مثل نقشه کشی‌های تکنیکی و آیکون‌ها ترجیح داده می‌شود و به این دلیل است که در روش‌های فشرده سازی پراتلاف خصوصا وقتی برای نرخ بیت‌های پایین استفاده شود فشرده سازی به کیفیت عکس لطمه می‌زند. روش‌های فشرده سازی بدون اتلاف همچنین ممکن است برای محتویات پر ارزش مثل عکس‌های پزشکی یا عکس‌های اسکن شده برای اهداف بایگانی شدن نیز ترجیح داده شوند. روش پراتلاف مخصوصا برای عکس‌های طبیعی مناسب است مثل عکس هایی برای کاربردهای کوچک (گاهی اوقات جزئی) که از دست رفتن درستی (fidelity) برای دست یافتن به کاهش نرخ بیت قابل توجه است .

روش‌های فشرده سازی بدون اتلاف عکس‌ها عبارتند از:

- کد گذاری طول اجرا (run-length encoding) استفاده شده در روش‌های پیش فرض در dcx و یکی از امکانات TIFF ,TGA ,BMP

- entropy coding

- الگوریتم های مطابق واژه نامه مثل lzw استفاده شده در GIF,TIFF

- کاهش اعتبار (deflation) استفاده شده در TIFF ,MNG ,PNG

روش‌های فشرده سازی پراتلاف عبارتند از:

- کاهش فضای رنگی برای رنگ هایی که بیشتر در عکس استفاده شده اند. رنگی که انتخاب شده در پالت رنگ در بالای عکس فشرده شده مشخص می‌شود. هرپیکسل فقط به شاخص رنگ در پالت رنگ اشاره داده می‌شود.

- chroma subsampling این روش امتیازی برای واقعیت است چون چشم روشنی را سخت تر از رنگ درک می‌کند بوسیله حذف کردن نصف یا بیشتر اطلاعات رنگ تابی یک عکس.

'- تغییر شکل دادن کد گذاری ('transform coding) این روش بطور عادی بیشترین استفاده را دارد.

- fractal compression بهترین کیفیت عکس در یک نرخ بیت (یا نرخ فشرده سازی) معین هدف اصلی از فشرده سازی عکس است. به هر حال ویژگی‌های مهم دیگری از رویه‌های فشرده سازی عکس وجود دارد که عبارتند از :

'مقیاس پذیری('scability): به طور کلی به کاهش کیفیت حاصل شده در اثر دستکاری گروه بیتی یا فایل گفته می شود. (بدون بازیابی). نامهای دیگر برای مقیاس پذیری ،progressive coding یا embedded biststream است. با وجود خلاف واقعی بودنش مقیاس پذیری نیز می‌تواند در رمز گذارهای (codec) بدون اتلاف یافت می شود . مقیاس پذیری خصوصاَ برای پیش نمایش عکس‌ها در حال دریافت کردن آنها یا برای تهیه کیفیت دستیابی متغیر در پایگاه‌های داده مفید است .

انواع مختلف مقیاس پذیری عبارتنداز :

- کیفیت مترقی(quality progressive ')یالایه مترقی('layer progressive):گروه بیتی پی درپی عکس را از نو می سازد.

- وضوح مترقی(resoloution progressive):ابتدا یک عکس وضوح پایین را کد گذاری می کند سپس تفاوتهای وضوح بالاتر را کد گذاری می‌کند .

- مؤلفه مترقی (component progressive): ابتدا رنگ را کد گذاری می‌کند .

ناحیه جذاب کدگذاری (region of interest coding)نواحی خاصی از عکس با کیفیت بالاتری نسبت به سایر نقاط کد گذاری می‌شوند و می‌تواند با مقیاس پذیری (کدگذاری ابتدایی یک بخش و دیگران بعداَ) ترکیب شود.

اطلاعات غیر نمادین(meta information)داده‌های فشرده شده می‌توانند شامل اطلاعاتی در رابطه با عکس باشد که می توان برای طبقه بندی کردن، جستجو یا بررسی عمومی عکس از آنها استفاده کرد. مانند اطلاعاتی که می‌توانند شامل رنگ و الگو و پیش نمایش کوچکتر عکس‌ها و اطلاعات خالق و کپی رایت باشد.

قدرت پردازش(processing power) الگوریتم‌های فشرده سازی اندازه های متفاوتی از قدرت پردازش را برای کدگذاری و کدگشایی درخواست می کنند. بعضی از الگوریتم‌های فشرده سازی عالی قدرت پردازش بالا می خواهند.

کیفیت روش فشرده سازی اغلب بوسیله سیگنال ماکزیمم به نسبت پارازیت (peak signal-to-noise ratio) اندازه گیری می شوند . اندازه پارازیت‌ها نشان دهند? فشرده سازی پراتلاف عکس است به هر حال قضاوت موضوع گرایانه بیننده همیشه بیان کنند? اهمیت اندازه گیری است .

Jpeg2000

Jpeg2000 یک استاندارد فشرده‌سازی عکس براساس wavelet (wavelet-based) است. و در سال 2000 به‌وسیله کمیته Joint Photographic Experts Group با نیت جایگزین کردن با استاندارد اصلی Jpegکه براساس تغییر گسسته(discrete cosine transform-based) است(محصول سال1991) تولید شده است.

JPEG 2000 زمان بیشتری را برای عملیات بازکردن فشردگی نسبت به JPEG طلب می‌کند.

اثبات از بالا به پایین محصولات فشرده‌سازی JPEG 2000: شماره‌ها نشان‌دهنده ضریب تراکم استفاده شده‌است.برای مقایسه بهتر شکل بدون مقیاس را نگاه کنید.

محصولات JPEG 2000 به فرم JPEG متفاوت به نظر می‌رسند و یک جلوه صیقلی روی عکس وجود دارد و برای نمایان

شدن  سطوح فشرده‌سازی بالاتری اختیار می کنند. اغلب یک عکس گرفته شده می‌تواند به اندازه اندازه فایل اصلی خود(bitmap فشرده نشده) بدون متحمل شدن اثر نمایان شدن فشرده شوند.

برگرفته از ویکی پدیا

 

برای دانلود جدیدترین مقالات ISI به وب سایت ایران سای – مرجع علمی فنی مهندسی مراجعه نمایید.

با تشکر

 

 

فیلتر کالمن چیست؟

فیلتر کالمن (Kalman Filter) یک فیلتر بازگشتی کارامد است که حالت یک سیستم پویا را از یک سری اندازه گیری‌های همراه با خطا بر آورد می‌کند. به همراه یک تنظیم کننده خطی مرتبه دوم (linear-quadratic regulator -LQR) فیلتر کالمن مسائل Gaussian control خطی مرتبه دوم (linear-quadratic-Gaussian control - LQG) را حل می‌کند. فیلتر کالمن ، LQR و LQG راه حلی هستند برای آنچه شاید اساسی‌ترین مسائل تئوری کنترل می نامند.


مثالی برای کاربرد : تهیه اطلاعات پیوسته به روز و دقیق در مورد مکان و سرعت یک شی معین فقط به کمک توالی مشاهدات در مورد موقعیت آن شی، که هر کدام شامل مقداری خطاست امکان پذیر است. این فیلتر در طیف گسترده‌ای از کاربری‌های مهندسی از رادار گرفته تا بصیرت رایانه‌ای کاربرد دارد. روش تصفیه کالمن یکی از عناوین مهم در تئوری کنترل و مهندسی سیستم‌های کنترلی می‌باشد.

به عنوان مثال، برای کاربری آن در رادار، آنجا که علاقه مند به ردیابی هدف هستید، اطلاعات در مورد موقعیت، سرعت و شتاب هدف با حجم عظیمی از انحراف به لطف پارازیت در هر لحظه اندازه گیری می‌شود. فیلتر کالمن از پویایی هدف بهره می‌گیرد به این صورت که سیر تکاملی آن را کنترل می‌کند، تا تاثیرات پارازیت را از بین ببرد و یک برآورد خوب از موقیت هدف در زمان حال (تصفیه کردن) و در آینده (پیش بینی) و یا در گذشته (الحاق یا هموار سازی) ارائه می‌دهد. یک نسخه ساده شده فیلتر کالمن، فیلتر آلفا بتا (alpha beta filter)، که همچنان عموماً استفاده می‌شود از ثابت‌های static weighting به جای ماتریس‌های کواریانس استفاده می‌کند.


نام گذاری و تاریخچه توسعه : اگر چه Thorvald Nicolai Thiele و Peter Swerling قبلاً الگوریتم مشابهی ارائه داده بودند، این فیلتر به افخار Rudolf E. Kalman، فیلتر کالمن نام گذاری شد و Stanley F. Schmidt عموماً به خاطر توسعه اولین پیاده سازی فیلتر کالمن شهرت یافت. این رخدادهنگام ملاقات با کالمن در مرکز تحقیقاتی ناسا (NASA Ames Research Center) روی داد و وی شاهد کارائی ایده کالمن در برآورد مسیر پرتاب پروژه آپولو بود، که منجر به الحاق آن به رایانه ناوبری آپولو شد. این فیلتر بر روی کاغذ در 1958 توسط Swerling، در 1960 توسط Kalman و در 1961 توسط Kalman and Bucy ایجاد و بسط داده شد.

این فیلتر بعضی مواقع فیلتر Stratonovich-Kalman-Bucy نامیده می‌شود، چرا که یک نمونه خاص از فیلتر بسیار معمولی و غیر خطی ای است که قبلاً توسط Ruslan L. Stratonovich ایجاد شده، در حقیقت معادله این نمونه خاص، فیلتر خطی در اسنادی که از Stratonovich قبل از تابستان 1960، یعنی زمانی که کالمن ،Stratonovich را در کنفرانسی در موسکو ملاقات کرد به چاپ رسید بود.

در تئوری کنترل، فیلتر کالمن بیشتر به برآورد مرتبه دوم (LQE) اشاره دارد. امروزه تنوع گسترده‌ای از فیلتر کالمن بوجود آمده، از فرمول اصلی کالمن در حال حاضر فیلترهای : کالمن ساده، توسعه یافته اشمیت، اطلاعاتی و فیلترهای گوناگون جذر بیرمن، تورنتون و بسیاری دیگر بوجود آمده اند. گویا مرسوم‌ترین نوع فیلتر کالمن فاز حلقهٔ بسته (phase-locked loop) می‌باشد که امروزه در رادیوها، رایانه‌ها و تقریباً تمامی انواع ابزارهای تصویری و ارتباطی کاربرد دارد.


اساس مدل سیستم پویا فیلترهای کالمن بر اساس سیستم‌های خطی پویا (linear dynamical systems) گسسته در بازه زمانی هستند. آنها بر اساس زنجیره ماکوف (Markov chain) مدل شده، به کمک عملگرهای خطی ساخته شده اند و توسط پارازیت گاشین (Gaussian noise) تحریک می‌شوند. حالت سیستم توسط برداری از اعداد حقیقی بیان می‌شود. در هر افزایش زمانی که در بازه‌های گسسته صورت می‌گیرد، یک عملگر خطی روی حالت فعلی اعمال می‌شود تا حالت بعدی را با کمی پارازیت ایجاد کند و اختیاراً در صورت شناخت روی کنترل کننده‌های سیستم برخی اطلاعات مرتبط را استخراج می‌کند. سپس عملگر خطی دیگر به همراه مقدار دیگری پارازیت خروجی قابل مشاهده‌ای از این حالت نامشخص تولید می‌کند. فیلتر کالمن قادر است مشابه مدل نامشخص مارکوف برخورد کند. با این تفاوت کلیدی که متغییرهای حالت نامشخص در یک فضای پیوسته مقدار می‌گیرند( نقطهٔ مقابل فضای حالت گسسته در مدل مارکوف). بعلاوه، مدل نامشخص مارکوف می‌تواند یک توزیع دلخواه برای مقادیر بعدی متغییرهای حالت ارائه کند، که در تناقض با مدل پارازیت گاشین ای است که در فیلتر کالمن استفاده می‌شود. در اینجا یک دوگانگی بزرگ بین معادلات فیلتر کالمن و آن مدل مارکوف وجود دارد. مقاله‌ای در رابطه با این مدل و دیگر مدل‌ها در Roweis and Ghahramani (1999) ارائه شده است. از فیلتر کالمن برای پیش بینی و اعلام خطرسیلاب نیز استفاده میشودیعنی به عنوان یک آلارم دهنده برای خطرسیلاب عمل می نماید.

بر گرفته از ویکی پدیا

 

برای دانلود مقالات ISI به وب سایت ایران سای – مرجع علمی فنی مهندسی مراجعه نمایید..

 

با تشکر

 

بینایی ماشین چیست؟

ینایی رایانه‌ای یا بینایی کامپیوتری (Computer vision) یا بینایی ماشینی (Machine vision) یکی از شاخه‌های مدرن، و پرتنوٌع هوش مصنوعیست که با ترکیب روشهای مربوط به پردازش تصاویر[۱] و ابزارهای یادگیری ماشینی[۲] رایانه‌ها را به بینایی اشیاء، مناظر، و "درک" هوشمند خصوصیات گوناگون آنها توانا می‌گرداند.

کاوش در داده‌ها

مقالهٔ اصلی: کاوش‌های ماشینی در داده‌ها

بینایی ماشینی را می‌شود یکی از مصادیق و نمونه‌های بارز زمینهٔ مادر و اصلی‌تر کاوش‌های ماشینی داده‌ها به‌حساب آورد که در آن داده‌ها تصاویر دوبعدی یا سه‌بعدی هستند، که آن‌ها را با هوش مصنوعی مورد آنالیز و ادراک قرار می‌دهیم.

وظایف اصلی در بینایی رایانه‌ای

تشخیص شیء

تشخیص حضور و/یا حالت شیء در یک تصویر. به عنوان مثال:

•        جستجو برای تصاویر دیجیتال بر اساس محتوایشان (بازیابی محتوامحور تصاویر).

•        شناسایی صورت انسان‌ها و موقعیت آنها در عکس‌ها.

•        تخمین حالت سه‌بعدی انسان‌ها و اندام‌هایشان.

پیگیری

پیگیری اشیاء شناخته شده در میان تعدادی تصویر پشت سر هم. به عنوان مثال:

•        پیگیری یک شخص هنگامی که در یک مرکز خرید راه می‌رود.

تفسیر منظره

ساختن یک مدل از یک تصویر/تصویر متحرک. به‌عنوان مثال:

•        ساختن یک مدل از ناحیهٔ پیرامونی به کمک تصاویری که از دوربین نصب شده بر روی یک ربات گرفته می‌شوند.

خودمکان‌یابی

مشحص کردن مکان و حرکت خود دوربین به عنوان عضو بینایی رایانه. به‌عنوان مثال:

•        مسیریابی یک ربات درون یک موزه.

سامانه‌های بینایی رایانه‌ای

یک سامانهٔ نوعی بینایی رایانه‌ای را می‌توان به زیرسامانه‌های زیر تقسیم کرد:

تصویربرداری

تصویر یا دنباله تصاویر با یک سامانه تصویربرداری(دوربین، رادار، لیدار، سامانه توموگرافی) برداشته می‌شود. معمولاً سامانه تصویربرداری باید پیش از استفاده تنظیم شود.

پیش‌پردازش

در گام پیش‌پردازش، تصویر در معرض اَعمال "سطح پایین" قرار می‌گیرد. هدف این گام کاهش نوفه (کاهش نویز - جدا کردن سیگنال از نویز) و کم‌کردن مقدار کلی داده ها است. این کار نوعاً با به‌کارگیری روش‌های گوناگون پردازش تصویر(دیجیتال) انجام می‌شود. مانند:

•        زیرنمونه‌گیری تصویر.

•        اعمال فیلترهای دیجیتال.

•        پیچشها.

•        همبستگیها یا فیلترهای خطی لغزش‌نابسته.

•        عملگر سوبل.

•        محاسبهٔ گرادیان x و y(و احتمالاً گرادیان زمانی).

•        تقطیع تصویر.

•        آستانه‌گیری پیکسلی.

•        انجام یک ویژه‌تبدیل بر تصویر.

•        تبدیل فوریه.

•        انجام تخمین حرکت برای ناحیه‌های محلی تصویرکه به نام تخمین شارش نوری هم شناخته می‌شود.

•        تخمین ناهمسانی در تصاویر برجسته‌بینی.

•        تحلیل چنددقتی.

استخراج ویژگی

هدف از استخراج ویژگی کاهش دادن بیشتر داده‌ها به مجموعه‌ای از ویژگی‌هاست، که باید به اغتشاشاتی چون شرایط نورپردازی، موقعیت دوربین، نویز و اعوجاج ایمن باشند. نمونه‌هایی از استخراج ویژگی عبارت‌اند از:

•        انجام آشکارسازی لبه.

•        استخراج ویژگی‌های گوشهای.

•        استخراج تصاویر چرخش از نقشه‌های ژرفا.

•        بدست آوردن خطوط تراز و احتمالاً گذر از صفرهای خمش.

ثبت

هدف گام ثبت برقراری تناظر میان ویژگی‌های مجموعه برداشت شده و ویژگی‌های اجسام شناخته‌شده در یک پایگاه داده‌های مدل و/یا ویژگی‌های تصویر قبلی است. در گام ثبت باید به یک فرضیه نهایی رسید. چند روش این کار عبارت‌اند از:

•        تخمین کمترین مربعات.

•        تبدیل هاگ در انواع گوناگون.

•        درهم‌سازی هندسی.

•        پالودن ذره‌ای.

 

برگرفته از ویکی پدیا

 

برای دانلود جدیدترین مقالات ISI  بینایی ماشین به وب سایت ایران سای – مرجع علمی فنی مهندسی مراجعه نمایید.

 

با تشکر

 

نظریه آشوب چیست؟

نظریّهٔ آشوب یا نظریّهٔ بی‌نظمی‌ها به مطالعهٔ سیستم‌های دینامیکی آشوب‌ناک می‌پردازد. سیستم‌های آشوب‌ناک، سیستم‌های دینامیکی‌ای غیرخطی هستند که نسبت به شرایط اولیه‌شان بسیار حساس‌اند. تغییری اندک در شرایط اولیهٔ چنین سیستم‌هایی باعث تغییرات بسیار در آینده خواهد شد. این پدیده در نظریهٔ آشوب به اثر پروانه‌ای مشهور است.

رفتار سیستم‌های آشوب‌ناک به ظاهر تصادفی می‌نماید. با این‌حال هیچ لزومی به وجود عنصر تصادف در ایجاد رفتار آشوبی نیست و سیستم‌های دینامیکی‌ی معین (deterministic) نیز می‌توانند رفتار آشوب‌ناک از خود نشان دهند.

می‌توان نشان داد که شرط لازم وجود رفتار آشوب‌گونه در سیستم‌های دینامیکی‌ی زمان‌پیوسته مستقل از زمان (time invariant) داشتن کمینه سه متغیر حالت است (سیستم مرتبه سه). دینامیک لورنتس نمونه‌ای از چنین سیستم‌ای است. برای سیستم‌های زمان‌گسسته، وجود یک متغیر حالت کفایت می‌کند. نمونهٔ مشهور چنین سیستم‌ای، مدل جمعیتی‌ی بیان‌شده توسط logistic map است.

تاریخچه

این نظریه، گسترش خود را بیشتر مدیون کارهای هانری پوانکاره، ادوارد لورنز، بنوا مندلبروت و مایکل فیگن‌باوم می‌باشد. پوانکاره اولین کسی بود که اثبات کرد، مساله سه جرم (به عنوان مثال، خورشید، زمین، ماه) مساله‌ای آشوبی و غیر قابل حل است. شاخه دیگر از نظریه آشوب که در مکانیک کوانتومی به کار می‌رود، آشوب کوانتومی نام دارد. گفته می‌شود که پیر لاپلاس و عمر خیام قبل از پوانکاره، به این مساله و پدیده پی برده بودند.

اولین آزمایش واقعی در زمینه ی آشوب توسط یک هواشناس به نام ادوارد لورنز انجام شد. در سال ۱٩۶٠، وی روی یک مسئله ی پیش بینی وضع هوا کار می کرد. وی بر روی کامپیوترش ۱۲ معادله برای پیش بینی وضع هوا درنظر گرفته بود. این معادلات وضع هوا را پیش بینی نمی کرد. ولی این برنامه ی کامپیوتری به طور نظری پیش بینی می کرد که هوا چگونه می تواند باشد. او می خواست دنباله ی مشخصی را دوباره ببیند. برای کاهش زمان، وی به جای شروع از اول، از وسط دنباله شروع کرد. او عددی را که دفعه ی قبل از دنباله در دست داشت وارد کرد و کامپیوتر را برای پردازش رها نمود و رفت. وقتی یک ساعت بعد برگشت، دنباله به صورتی متفاوت از دفعه ی قبل پیشرفت کرده بود. به جای حالت قبلی، الگوی جدید آن واگرا می شد و در آخر شکلی کاملا به هم ریخته نسبت به اولی پیدا می کرد. او بالاخره فهمید که مشکل کار کجاست. کامپیوتر تا ۶ رقم اعشار را در خود ذخیره می کرد و برای اینکه وی کاغذ کمتری مصرف کند فقط تا ۳ رقم اعشار را برای خروجی درنظر گرفته بود. در الگوی اولیه، عدد بدست آمده در اصل۵۰۶۱۲۷/٠ بود ولی وی برای حالت بعدی فقط ۵۰۶/۰را وارد کرد. براساس تمام ایده های آن زمان، این دنباله باید شبیه و یا خیلی نزدیک به حالت اولیه می شد. رقم های پنجم و ششم، که برای بعضی از روش ها غیر قابل اندازه گیری هستند، نمی توانند تاثیر زیادی روی خروجی داشته باشند. لورنز این باور را رد کرد. این اثر به عنوان اثر پروانه ای شناخته شد. مقدار تفاوت بین نقاط شروع دو نمودار آنقدر کم است، که به اندازه ی بال زدن یک پروانه می تواند باشد: بال زدن یک پروانه تغییر بسیار اندکی در وضعیت اتمسفر ایجاد می کند. در طول یک دوره، اتمسفر از حالتی که باید می بود، عملأ دور می شود. به همین دلیل، در طول یک دوره، یک گردباد که قرار بود سواحل اندونزی را تخریب کند، هیچ وقت اتفاق نمی افتد و یا ممکن است، گردبادی که اصلا قرار نبود اتفاق بیفتد، رخ دهد. این پدیده، به عنوان حساسیت بالا به شرایط اولیه نیز شناخته شده است. *

آشوب دقیقا چیست؟

اگر فقط ذره ای در هر سوی این بازه جابجا شوید همه چیز به بی نهایت میرود ! یک بار به هم خوردن بالهای یک پروانه کافیست تا شما با یک رفتار آشوبگونه روبرو شوید. این رفتار به آرامی به آشوبگونگی میل نمیکند بلکه سیستم از نقطه ای ناگهان به سمت بی نهایت می رود . آیا در طبیعت پدیده ای – مثلا دانه های برف یا کریستال ها – وجود دارد که در قالب ابعاد کلاسیک طبیعت که تا به امروز می شناختیم نگنجد؟ پدیده هایی مثل دانه برف دارای ویژگی جالبی به نام خود متشابهی هستند به این معنا که شکل کلی شان از قسمت هایی تشکیل شده است که هرکدام به شدت شبیه به این شکل کلی هستند. ایده اصلی آشوب تعریف رفتار سیستمهای مشخصی است که شدیدا به شرایط اولیه شان حساسند. ادوارد لورنتز در دهه ۶۰ میلادی اعلام کرد که معادلات دیفرانسیل می توانند خاصیت فوق را داشته باشند. این ویژگی اثر پروانه ای نام گرفت.

آشوب از نقطه نظر ریاضی به چه معناست؟

یک سیستم جوی ساده را در نظر بگیرید. تابع   برای تخمین دمای فردا از روی دمای امروز در دست است. اوربیت یک نقطه تحت یک تابع مجموعه اتفاقاتی است که در اثر تکرار تابع (دینامیک) برای آن نقطه می افتد. برای مثال اربیت نقطه 1 تحت تابع ما این است که ۱ ابتدا ۳ سپس ۵ بعد ۷ و ... می شود. مهمترین گونه اربیت ها نقطه ثابت است که هرگز تحت اجرای تابع تغییر نمی کند ولی تابع ما چنین نقطه ای ندارد. حال   را در نظر بگیرید. این تابع ما را به دنیای آشوب می برد. به نظر می رسد اربیتهای تمام نقاط به بی نهایت میل می کنند. باید اشاره شود که نقاط پایانی هر بازه ای روی این تابع ثابتند. با اجرای تابع و ادامه دادن آن می بینیم که تمام نقاط داخل بازه به بی نهایت میل می کنند ولی حدود بازه همچنان متناهی اند . این رفتار یک رفتار آشوب گونه است. مثلث سرپینسکی و پوست مار کخ دو فرکتال یا برخال معروف اند. در مورد پوست مار کخ جالب اینکه ناحیه متناهی ولی پارامتر نامتناهی دارد. می توان سطح خود تشابهی در فرکتالها را با مفهوم جدیدی از بعد که مبتنی بر تعداد کپی های مجموعه های خودمتشابه در فرکتال و میزان بزرگنمایی هر مجموعه است اندازه گیری کرد. به این معنی که بعد فرکتالی یک مجموعه از تقسیم لگاریتم تعداد کپی ها به لگاریتم بزرگنمایی به دست می آید. این مقدار برای مثلث سرپینسکی 1.584 و برای پوست مار کخ 1.261 است.

 

برگرفته از ویکی پدیا

 

برای دانلود مقالات ISI سال 2013 مربوط به نظریه آشوب به وب سایت ایران سای – مرجع علمی فنی مهندسی مراجعه نمایید.

 

با تشکر

 

 

 

انبار یا انباره داده ها چیست؟

انبار داده به انگلیسی: Data warehouse‏ یک بانک اطلاعاتی بزرگ می‌باشد که از طریق آن کلیه داده‌های حال و گذشته یک سازمان جهت انجام عملیات گزارش گیری و آنالیز در دسترس مدیران قرار می‌گیرد. انبار داده نقش مهمی در تصمیم گیری مدیران کمپانی برای تعیین یک استراتژی موفق دارد.

بعضی از داده‌ها قبل از ورود به انبار به یک فضای عملیاتی کوچکتر (operational data store) برای پردازش بیشتر وارد می‌شود.

انبار داده سه لایه دارد که به ترتیب (Integration),(Staging) و(Presentation) نام دارد.

داده‌های خام از منابع اطلاعاتی مختلفی جمع آوری شده ودر لایه staging وارد می‌شوند. منبع داده خام می‌تواند یک سیستم ERP,پایگاه داده یک برنامه کاربردی و یا یک فایل Excel باشد.

ایجاد یکنواختی بین داده‌های وارد شده به انبار در دومین لایه یعنی integration انجام می‌شود. به عنوان مثال حذف رکوردهای تکراری و یا نرمال سازی داده‌ها.

در لایه Presentation داده‌ها در دسترس کاربران قرار می‌گیرد. نرم‌افزارهای تهیه گزارش مانند Cognos ,Business Object,SAP با دسترسی به این لایه می‌توانند اطلاعات مورد نیاز مدیران و تحلیلگران را استخراج و در قالب گزارش یا Dashboard عرضه نمایند.

در لایه Presentation می‌تواند چندین Data mart وجود داشته باشد.

 

برگرفته از ویکی پدیا

 

برای دانلود مقاله های ISI چاپ شده در ژورنالهای 2013 و 2012 به وب سایت ایران سای – مرجع علمی فنی مهندسی مراجعه نمایید.