فی بوو

مرجع دانلود فایل ,تحقیق , پروژه , پایان نامه , فایل فلش گوشی

فی بوو

مرجع دانلود فایل ,تحقیق , پروژه , پایان نامه , فایل فلش گوشی

پروژه مدلسازی و پردازش عواطف واحساسات انسانی توسط ماشین. doc

اختصاصی از فی بوو پروژه مدلسازی و پردازش عواطف واحساسات انسانی توسط ماشین. doc دانلود با لینک مستقیم و پر سرعت .

پروژه مدلسازی و پردازش عواطف واحساسات انسانی توسط ماشین. doc


پروژه مدلسازی و پردازش عواطف واحساسات انسانی توسط ماشین. doc

 

 

 

 

نوع فایل: word

قابل ویرایش 100 صفحه

 

چکیده:

در دنیای امروز کاربردهای پردازش تصویر هر روزه در حال افزایش است .در زمینه پزشکی ،رباتیک و هواشناسی تحقیقات و پژوهش های بسیاری در این زمینه شده است و از کاربردهای آن در این زمینه استفاده های بسیاری می شود.اما  درمورد پردازش احساسات انسانی توسط ربات تحقیقات کمتری صورت گرفته و از موضوع پردازش چهره فراتر می باشد . در مقاله پیش روسعی بر این بوده است تا در ابتدا موارد کلی و مفاهیم اصلی در رابطه با موضوع یعنی پردازش احساسات توسط ماشینها آورده شود ، مفاهیمی از قبیل هوش مصنوعی و مفاهیم مرتبط با آن ، بازیابی معنایی عاطفی تصویر ، تشخیص چهره با استفاده از شش حالت اصلی چهره و دیگر مفاهیمی که برای پیاده سازی و ارائه مطالب مورد نیاز است . در قدم بعدی مطالب و مقاله هایی که پیش از این توسط افراد دیگر در رابطه با موضوع مورد نظر گردآوری شده است آورده شده ، که از این مقالات برای نتیجه گیری بهتر و ملموس تر کردن موارد جمع آوری شده استفاده می کنیم . در قدم آخر هم نتایج مطالعات و تحقیقات انجام شده برای ارائه روشی به صرفه در آشنایی با پردازش و مدلسازی احساسات درونی توسط رباتها با استفاده از الگوریتم های به کار رفته آورده می شود .

در این فصل با مفاهیم اولیه و واژه هایی که مربوط به پروژه می باشد آشنا می شوید و با مطالعه این فصل می توانید به راحتی مطالب فصول دیگر را بهتر درک نمایید .بحث اصلی این پروژه بر روی علم هوش مصنوعی می باشد ، که به وسیله این علم شما می توانید دنیای رباتیک را بهتر درک کنید . در این فصل شما با مفاهیم دیگر همچون : هوش محاسباتی و کاربردهای مختلف آن ، واقعیت مجازی که در دنیای امروز واژه ای بسیار آشنا می باشد ، مفاهیم اولیه پردازش تصویر و کاربردهای آن در زمینه های مختلف علمی که در فصول دیگر به طور کلی تر راجع به آن بحث شده است وغیره که با مطالعه این فصل می توانید با آنها آشنا شوید .

 

مقدمه:

از زمان طرح آزمون تورینگ در هوش مصنوعی ،توسعه پردازش زبان طبیعی و ساختن ماشینی مانند انسان ،از آرزوها و موضوعات علوم کامپیوتر بوده است . یکی از چالشهای مهم در زمینه پردازش عواطف و احساسات انسانی مانند خوشحالی ،ناراحتی ،خشم ،عشق و نفرت توسط ماشین است ،طوری که مثلا ماشینها یا رباتها نسبت به هم گذشت داشته باشند یا یکی از عملکرد  دیگری خشمگین یا خوشحال شود.در این راستا و در همین تحقیق روشهای پردازش احساسات و مخصوصا احساسات قابل انتقال و تشخیص از حالتهای چهره بررسی و تحلیل شده و مزایا و معایب هر کدام بیان می شود .      

 

فهرست مطالب:

چکیده

فصل اول: مفاهیم اولیه

1-1   مقدمه

1-2  هوش مصنوعی

1-2-1   نظریه و تست الن تورینگ

1-2-2   پردازش زبان طبیعی

1-2-3 هوش اجتماعی

1-2-4 حرکت و جابجا کردن اجسام

1-2-5 ادراک

1-3 هوش محاسباتی

1-3-1 محاسبات تکاملی

1-3-2    هوش ازدحامی

1-3-3 شبکه های عصبی مصنوعی

1-3-4  سیستم های فازی

1-4 محاسبات نرم

1-4-1 مقایسه محاسبات نرم با محاسبات سخت

1-5   معرفی نرم افزار WINCC  برای ارتباط انسان با ماشین

1-5-1 سیستم های فرعی در این نرم افزار عبارتند از

1-6   واقعیت مجازی

1-6-1 ویژگی  های واقعیت مجازی 

1-6-2 کاربردهای واقعیت مجازی

1-7   پردازش تصاویردیجیت

1-8  پردازش تصویر

1-8-1  آشنایی با مفاهیم اولیه پردازش تصویر

1-8-3  کاربردهای نظامی

نتیجه گیری

فصل دوم : تحقیقات انجام شده توسط دیگران

2-1  استخراج هوشمند و خودکار منحنی دقیق دور لب

2-1-1  مقدمه

2-1-2   فضای  رنگی جدید

2-1-3    یافتن آستانه بهینه

2-1-4  یافتن نقاط کلیدی و رسم منحنی دور لب

2-1-5  نتایج آزمایشات

2-2   مروری بر روشهای بازیابی معنایی عاطفی تصویر

2-2-1   مقدمه

2-2-2   روشهای بازیابی تصاویر بر اساس معانی عاطفی

2-3 تشخیص حالت های چهره از روی تصاویر متحرک با استفاده از Optical Flow و شبکه عصبیRBF

2-3-1   مقدمه

2-3-2  نقاط مشخصه صورت (FCP)

2-3-3  پایگاه داده استفاده شده

2-3-4   روش محاسبه Optical  Flow

2-3-5   سیستم تشخیص حالت های چهره توسط شبکه عصبیRBF

نتیجه گیری

فصل 3 : مدلسازی و پردازش عواطف انسانی توسط ماشین

3-1  مقدمه

3-2  الگوریتم ارتباطات عاطفی

3-3   ویژگی های ورودی الگوریتم

3-4  ویژگی های خروجی الگوریتم

3-5 اجرا

3-6   اعتبار سنجی بسترهای نرم افزاری تجربی

3-7   راه اندازی آزمایشی 

3-8  آزمایش

3-9   نتیجه گیری

فصل چهارم: نتیجه گیری نهایی

فصل پنجم: پیشنهادات

منابع و  مراجع

ضمیمه 1 : الگوریتم مسیریابی ربات آتش نشان

ضمیمه 2 : نیو ربات احساساتی

 

منابع و مأخذ:

1-ARTIFICIAL  INTELLIGENCE (AI)

2- Intelligent  machines

3- Turing Test

4- Creative Commons Attribution/Share- Alike

5-http://www.iranictnews.ir

6- http://www.hccmr.com/news-507.aspx

7- http://www.farsiebook.com/ebook/8955.htm

8-Digital Image Processing,Rafael C.Gonzalez,Richard E.Woods,2ndEdition,Prentice Hall,2001.

9-Digital Image Processing Using Matlab,Rafael C.Gonzalez,Richard E.Woods, Steven Eddins,1stEdition,Pearson,2003.

10-Digital Image Processing , William K. Pratt,4th Edition, John Wiley ,2007.

11-L.Putzara, I.Goerendta,T.Heeda,G.Richardb,C.Buchelc,B.Rodera.The neural basis of lip- reading capabilities is altered by early visual deprivation ,Neuropsychologia, Vol. 48,No.10,pp. 2158-2166 ,2010.

12- W. C. Ooi, C. Jeon, K. Kim, D. K. Han and H. Ko, “Effective Lip Localization and     Tracking for Achieving Multimodal Speech Recognition”, IEEE. Int. Conf. Multisensor Fusion and Integration for Intelligent Systems. Korea ,pp. 90-93, 2008.

13- N. Eveno, A. Caplier, and P. Y. Coulon, “Accurate and Quasi- Automatic Lip Tracking”, IEEE trans. Circuits and Systems for Video Technology, Vol. 14, No. 5, pp. 706-715, 2004.

14- ] S. Igawa, A. Ogihara, A. Shintani, and S. Takamatsu, “Speech recognition based on fusion of visual and auditory information  using full-frame color image”, IEICE trans. on fundamentals of electronics, communications and computer sciences, Vol. E79A, No. 11, pp. 1836-1840, 1996.

15-  N. Eveno, A. Caplier, P. Y. Coulon, “Key Points Based Segmentation of Lips”, IEEE Int. Conf. on Multimedia and Expo Segmentation of Lips”, IEEE Int. Conf. on Multimedia and Expo (ICME 02), Lauzanne, pp. 125-128, 2002.

16- R.L.Hsu, M.Abdel, A.K.Jain, “Face Detection in Color Images”, IEEE Trans. Pattern Analysis & Machine Intelligence, Vol. 24, No. 5, pp. 696-706, 2002.

17-A. Savran, B. Sankur, M. T. Bilge, "Facial action unit detection: 3D versus 2D modality", IEEE CVPR'10 Workshop on Human Communicative Behavior Analysis, San Francisco, California, USA, June 2010.

18- N.Otsu, “A threshold selection method from gray-level histograms”, IEEE Trans. on Systems Man Cybernetics, Vol. 9, No. 1, pp.62-66, 1979.

19- J.j.Zhao and J.j.Chen and Y.Qiang, "The Ontology-Cored Emotional Semantic Search Model",Advances in Wireless Networks and Information Systems, LNEE 72, pp. 209–215.

20- ] J.Machajdik and A. Hanbury, "Affective Image Classification using Features Inspired by Psychology and Art Theory", pp. 1-12,2004.

21- ] S.Bae Cho and J.Young Lee, " A Human-Oriented Image Retrieval System Using Interactive Genetic Algorithm", IEEE TRANSACTIONS ON SYSTEMS, MAN, AND CYBERNETICS PART A: SYSTEMS AND HUMANS, VOL. 32, NO. 3, pp 452-458,2002.

22- ] A.Lakdashti and M. Shahram Moin and K.Badie, " A Novel Semantic–Based Image Retrieval Method", IEEE TRANSACTIONS ON SYSTEMS, MAN, AND CYBERNETICS

PART A: SYSTEMS AND HUMANS, VOL. 52 , NO. 3, pp 969-974,2008.

23- S.Yong Hong and H.Yeon Choi, "COLOR IMAGE SEMANTIC INFORMATION RETRIEVAL SYSTEM USING HUMAN SENSATION AND EMOTION ",Issues in Information Systems, Volume VII, No. 2, pp140-145, 2006.

24- M.Solli and R.Lenz, " Color Semantics for Image Indexing ", 5th European Conference on Colour in Graphics, Imaging, and Vision, Joensuu, Finland, pp353-358,2010.

25- S.Bae Cho, " Emotional Image and Musical Information Retrieval With Interactive Genetic Algorithm", PROCEEDINGS OF THE IEEE, VOL. 92, NO. 4,702-711, 2004.

26- K.A.Olkiewicz and U.M.Kaczmar, "Emotion-based Image Retrieval-an Artificial Neural Network Approach", International Multiconference on Computer Science and Information

Technology, Wisla, POLAND, pp 89-96 , 2010.

27- W.NING WANG and Y.LIN YU, " IMAGE EMOTIONAL SEMANTIC QUERY BASED ON COLOR SEMANTIC DESCRIPTION ", Fourth International Conference on Machine Learning and Cybernetics, Guangzhou, pp4571-4576, 2005.

28- H.Chang Yang and C.Hong Lee, " Image semantics discovery from web pages for semantic-based image retrieval using selforganizing maps", Elsevier, Expert Systems with Applications 34, pp266–279, 2008.

29- N.Liu and E.Dellandr and C.Zhu and Y.Zhang and C.E.Bichot and S.Bres and B.Tellez and L.Chen, " LIRIS-Imagine at ImageCLEF2011 Photo Annotation task", pp 1-9.

30- N. Magesh and Dr. P. Thangaraj, " Semantic Image Retrieval Based on Ontology and SPARQL Query", International Conference on Advanced Computer Technology,pp1-9, 2011.

31- ] W.Wang and Y.Song and A.Zhang, " Semantics-based Image Retrieval by Region Saliency", pp 1-9, 2010.

32- H.Kong and M.Hwang and P.Kim, " The Study on the Semantic Image Retrieval based on the Personalized Ontology", International Journal of Information Technology, Vol. 12 No. 2, pp35-46,2006.

33-] H. Kobayashi and F. Hara," Recognition of Six Basic Facial Expressions and Their Stength by Neural Network ," Proc. of ROMAN' 92,pp381-386 ,1992.

34- T. Goto, S. Kshirsagar and N. Magnenat, "Automatic Face Cloning and Animation ," IEEE signal processing Magazine, pp. 17-25, May 2001.

35- L. Franco and A. Treves ,"A Neural Network Facial Expression Recognition System using Unsupervised Local Processing ," IEEE Trans.in Neural Networks, PP. 626-672 ,2001.

36- H. Kobayashi and F. Hara, "Real - Time Recognition of Six Basic Facial Expression," IEEE Int.Workshop on Robot and Human Communication,PP. 179- 185,1995.

37- H. Kobayashi and F. Hara ,"Analysis of the Neural Network Recognition Characteristics of 6 Basic Facial Expressions ," Int. Workshop on Robot and Human Communication ,PP. 222-226 , 1994.

38- ] H. Ushida , T. Takagi and T. Yamaguchi, "Recognition of Facial Expressions using Conceptual Fuzzy Sets ," IEEE Int. Conf. on Fuzzy Systems Vol.1 Mar. 1993.

39- A. Ralescu and H. Iwamoto," Recognition of and A. Ralescu and H. Iwamoto," Recognition of and IEEE Int.Workshop on Robot and Human Communication ,PP. 259-264 ,1993.

40- H. Ebine and O. Nakamura ," The Rocognition of Facial Exprossion Based on Fuzzy Expert System," IEICE 1998,General Conf.,D-12-163,PP. 262-265,1998.

41- ] M. Rosenblum , Y. Yacoob and L. Davis ,"Human Expression Recognition from Motion using a Radial Basis Function Network Architecture," IEEE Trans. on Neural Networks ,vol.7,No.5,september 1996.

42- Y. Yacoob and L. Davis,"Computing Spatio- Temporal Representation of Human Faces," Proc.of Computer Vision and Pattern Recognition Conf. ,pp. 70-75,1994.

43- M.j. Black and Y.Yacoob,"Recognizing Facial Expressions in Image Sequences Using Local Parameterized Model of Image Motion," Int. Joumal of Computer Vision,March 1995.

44- F. Piat and N. Tsapatsoulis , "Exploring the Time Course of Facial Expressions with a Fuzzy System ," ICME 2000 , PP. 615-618 , NY, U.S.A ,2000.

45- T. Kanade , J. Cohn, and Y. Tian. Comprehensive database for facial expression analysis, 2000.

46- J. Moody and C. Darken, "Learning with Localized receptive fields" in proc, 1988 Connectionist Models ummer School. San Matco. CA:Morgan-Kaufmann 1988.

47- Azad, P.; Asfour, T.; and Dillmann, R. 2007. Toward an Unified Representation for Imitation of Human Motion on Humanoids. In ICRA.

48- Bar-Cohen, Y., and Breazeal, C. 2003. Biologically Inspired Intelligent Robots. SPIE Press.

49- Breazeal, C. 2002. Designing Sociable Robots. The MIT Press.

50- Brock, O.; Fagg, A.; Grupen, R.; Platt, R.; Rosenstein, M.; and Sweeney, J. 2005. A Framework for Learning and Control in Intelligent Humanoid Robots. International Journal of Humanoid Robotics 2(3):301–336.

51- Brooks, R.; Aryananda, L.; Edsinger, A.; Fitzpatrick, P.; Kemp, C.; O’Reilly, U.-M.; Torres-Jara, E.; Varshavskaya, P.; andWeber, J. 2004. Sensing and manipulating built-forhuman environments. International Journal of Humanoid Robotics 1(1):1–28.

52- Deegan, P.; Thibodeau, B.; and Grupen, R. 2006. Designing a Self-Stabilizing Robot For Dynamic Mobile Manipulation. In Robotics: Science and Systems - Workshop on Manipulation for Human Environments.

53- Edsinger, A., and Kemp, C. C. 2006. Manipulation in Human Environments. In IEEE/RSJ International Conference on Humanoid Robotics.

54- Katz, D., and Brock, O. 2007. Interactive Perception: Closing the Gap Between Action and Perception. In ICRA 2007.

55- Workshop: From features to actions - Unifying perspectives in computational and robot vision.

56- Katz, D.; Horrell, E.; Yang, Y.; Burns, B.; Buckley, T.; Grishkan, A.; Zhylkovskyy, V.; Brock, O.; and Learned- Miller, E. 2006. The UMass Mobile Manipulator UMan: An Experimental Platform for Autonomous Mobile Manipulation. In Workshop on Manipulation in Human Environments at Robotics: Science and Systems.

57- Khatib, O.; Yokoi, K.; Brock, O.; Chang, K.-S.; and Casal, A. 1999. Robots in Human Environments: Basic Autonomous Capabilities. International Journal of Robotics Research 18(7):684–696.


دانلود با لینک مستقیم


پروژه مدلسازی و پردازش عواطف واحساسات انسانی توسط ماشین. doc