لال سلام بھٹو
سید قمر عباس
وہ پشاور یونیورسٹی کی طلبہ کی سیاست میں متحرک تھے اور پی ایس ایف کے مقبول رہنما تھے ۔ سید قمر عباس نے ہم سے کہا کہ قاضی سلطان محمود صاحب سے کہو کہ مجھے کچھ دن دیں ان شاء اﷲ خیبر پختونخواہ کے طلبہ پنجاب کے طلبہ کے شانہ بہ شانہ تحریک چلائیں گے ۔ہم واپس راولپنڈی آ گئے دوسرے دن رات کو بی بی سی اردو سنا کہ پشاور یو نیورسٹی کے طلبہ کا بھرپور احتجاج یونیورسٹی بند کر دی گئی جمرود روڈ مکمل بلاک سید قمر عباس شہید ایک بہادر انسان تھے وہ مشہور شاعر فارغ بخا ری کے صاحبزادے تھے ۔پیپلز سٹوڈنٹس فیڈریشن کے بانیوں میں سے تھے ۔ساری زندگی جد وجہد میں گزاری متعدد بار جیلوں میں گئے ان کی شہادت سے پیدا ہو نے والا خلاء آج تک پر نہیں ہو سکا ۔
یہ سال 1972کی بات ہے اور غالبا مہینہ بھی فروری کا تھا کیو نکہ مجھے یاد ہے کہ ذوالفقار علی بھٹو کی پیپلز پارٹی کو بر سراقتدار آئے ہوئے یہی کوئی مہینہ ڈیڑھ ہو ا تھا ۔میں ان دنوں گورڈن کالج راولپنڈی کی سٹوڈنٹس یونین کا صدر تھا ۔چونکہ بھٹو صاحب نے جنرل یحی کوreplace کیا تھا اس لیے وہ نہ صرف ملک کے صدر تھے بلکہ مارشل لاء ایڈ منسٹریٹر بھی تھے ۔اسی اعتبار سے صوبوںکے گورنر ،ڈپٹی مارشل لاء ایڈمنسٹریٹر ٹھہرے پنجاب میں غلام مصطفی کھر کے پاس یہ عہدہ تھا۔کھر صاحب نے صوبے امور چلانے کے لیے ایک کابینہ تشکیل دے رکھی تھی ۔جس میں راولپنڈی سے منتخب شدہ ایم این اے خورشید حسن میر تعلیم کا مشیر بنا یا گیا تھا ۔میںنے صدارت کا الیکشن بھاری اکثریت سے جیت رکھا تھا ۔نسبتاََ آسانی سے...
Abstract- In the proposed approach, an Extended Model Predictive Sliding Mode Controller (EMPSMC) was designed to control three-level AC / DC power converters for better dynamic performance and better achievement. The traditional proportional integration (PI) controller is used in the model predictive PI controller (MPPIC) technique to generate active power reference. However, this technique results in a significant overshoot/undershirt and steady-state error. Instead of PI, sliding mode control (SMC) is used to address these shortcomings. The performance of EMPSMC and MPPIC is compared and analyzed without interruption. The results show that the introduction of SMC reduces the time lag of the system and reduces overshoot. The simulation results validate the performance of the designed model.
Simulation of scientific problems is an important aspect of natural and engineering sciences. Simulations demanding higher accuracy or involving larger data sets require higher computing power. Complex mathematical models involving partial differential equations (PDEs) from computational fluid dynamics (CFD) are some examples of these simulations. The conventional serial computers are not able to meet the increasing demand of computation power for such applications and the only rescue is parallel or high-performance computing. This study presents research regarding parallel numerical solution of PDEs. Message Passing Interface (MPI) clusters and Graphic Processor Units (GPUs) being the leading platforms for parallel computing were used for simulation of results. The research begins with the unified analysis of the existing parallel iterative algorithms using MPI. A set of diverse PDEs was solved using the MPI cluster. After getting an insight of iterative methods for MPI platform, the parallel system with shared memory architecture was experimented. The most advent platform in this regard is GPUs having thousands of concurrent running cores along with many Giga bytes (GBs) of memory. 3D Laplace equation was solved using twelve different kernels to exploit the memory hierarchy of GPU and an efficient technique involving surfacing pointer’s capability of GPU was materialized. The GPU kernel exhibiting said features gained a speedup of 70 as compared to serial version of same program running on Intel core i5 processor. The derived technique was further extended to simulate the compressible, high-speed flows modeled by Navier Stokes equations using GPU. Four different structured geometries were modeled; the governing equations were solved using modified RK4 method and TVD scheme was used for shockwave capturing. The derived technique was also used to simulate the flow in micro channel using Lattice Boltzmann Method. The GPU results show a speedup of 23 and 77 as compared with serial variants of codes running on conventional core i5®CPU for both cases respectively. It is evident from obtained results that the performance of CFD and other compute intensive application can be enhanced many folds by using the devised technique involving surface pointers in GPU computation.