محمد اقبال منہاس(۱۹۴۱ء۔۱۹۹۰ء) نام اور اقبالؔ تخلص کرتے تھے۔ آپ کے آباؤ اجداد کا تعلق پسرور سے تھا۔ آپ کے والد ملازمت کے سلسلے میں عراق میں مقیم تھے۔ جہاں اقبال منہاس پیدا ہوئے۔ آپ نے انٹر سے ایم ۔انگلش تک تعلیم گورنمنٹ مرے کالج سیالکوٹ سے حاصل کی۔ انھوں نے انگریزی ادب میں ڈاکٹریٹ کی ڈگری بھی حاصل کی ۔آپ دوران طالب علمی’’ مرے کالج میگزین ‘‘کے حصہ اردو کے مدیر بھی رہے۔ اور اسی کالج میں بحیثیت استاد بھی کام کیا۔ (۹۶۵) منہاس کے علمی و ادبی ،تحقیقی و تنقیدی مضامین اور غزلیں ’’شمع‘‘ ،دہلی ،’’سیپ‘‘، ’’فنون‘‘ ،’’اوراق‘‘،’’افکار‘‘ اور ’’رابطہ‘‘ میں شائع ہو چکی ہیں۔ آپ کا ایک شعری مجموعہ ’’آبِ گریزاں‘‘ شائع ہو چکا ہے جسے معروف شاعر طاہر نظامی نے مرتب کیا ہے۔ ’’آب گریزاں‘‘ میں نظمیں ،غزلیں ،قطعات اور رباعیات شامل ہیں۔
اقبال منہاس کی شاعری کے لہجے میں نیا پن پایا جاتا ہے۔ ان کے ہاں موضوعات کی جدت، جدید حسیات اور نئی لفظیات ملتی ہیں:
وہ لوگ پھول سے کومل وجود رکھتے ہیں
وہ جن کے دامن رنگین میں خار ہوتے ہیں
شمع جلے نہ کوئی پھول ہی کھلے جن پر
وہی تو اہلِ وفا کے مزار ہوتے ہیں
(۹۶۶)
áاقبالؔ ایک حساس شاعر اور حساس انسان ہیں ۔ وہ عام انسانوں کے مقابلے میں معاشرہ میں ہونیوالی نا انصافیوں اور استحصال کو جلد محسوس کرتے ہیں۔ اقبال منہاس اپنے ارد گرد ظلم ، معاشی و سماجی نا ہمواری اور انسانی بے بسی کو دیکھتے ہیں تو خاموش تماشائی نہیں بنتے۔ ان کی شخصیت اور شاعری میں ایک محتاط رویہ بھی ملتا ہے۔ اور...
Sindh remains a center of great Islamic scholar in early ages till now, scholars of Sindh served in all the fields of Islamic studies. Among Islamic Scholars of Sindh who have left unmatchable repute Sayyed Badi‘ud-Din Shah alR┐shidi, is one of them. He was at home in Quran and its sciences, Hadith and its science, Fiqah and its science. He was author of many books among them was Badi‘ul Taf┐sir, Badi‘ul Taf┐sir (اافتلرس دبعی (currently Contains 11th volumes including excurses (دقمہم (this tafsir adheres to the following sequence: (1) Tafsir of Quran by the Sunnah. (2) Tafsir of Quran by Language. (3) Tafsir of Quran by Opinion. Badi‘ul Tafasir is worthy to get the award of best Sindhi tafsir of this time. In this manuscript it is proved that Badi‘ul Tafasir is best collection of Religious commandments which has been described in detail according to jurisprudential Viewpoints and qualities.
Human action recognition (HAR) has emerged as a core research domain for video understanding and analysis, thus attracting many researchers. Although signi cant results have been achieved in simple scenarios, HAR is still a challenging task due to issues associated with view independence, occlusion and inter-class variation observed in realistic scenarios. In previous research e orts, the classical Bag of Words (BoW) approach, along with its variations, has been widely used. In this dissertation, we propose a novel feature representation approach for action representation in complex and realistic scenarios. We also present an approach to handle the inter and intraclass variation challenge present in human action recognition. The primary focus of this research is to enhance the existing strengths of the BoW approach like view independence, scale invariance and occlusion handling. The proposed Bag of Expressions (BoE) includes an independent pair of neighbors for building expressions; therefore it is tolerant to occlusion and capable of handling view independence up to some extent in realistic scenarios. We apply a class-speci c visual words extraction approach for establishing a relationship between these extracted visual words in both space and time dimensions. To improve classical BoW, we propose a Dynamic Spatio-Temporal Bag of Expressions (D-STBoE) model for human action recognition without compromising the strengths of the classical bag of visual words approach. Expressions are formed based on the density of a spatiotemporal cube of a visual word. To handle inter-class variation, we use class-speci c visual word representation for visual expressions generation. The formation of visual expressions is based on the density of spatiotemporal cube built around each visual word, as constructing neighborhoods with axed number of neighbors would include non-relevant information hence making a visual expression less discriminative in scenarios with occlusion and changing viewpoints. Thus, the proposed approach makes our model more robust to occlusion and changing viewpoint challenges present in realistic scenarios. Comprehensive experiments on publicly available datasets show that the proposed approach outperforms existing state-of-the-art human action recognition approaches.