text
stringlengths
1k
4.1k
✅ اسلایدها و ویدئو ها از کنفرانس The Scaled Machine Learning Conference 2018 #کنفرانس #یادگیری_ماشین #آموزش #مقاله #منابع 1️⃣ Introduction slide 🔸 Scaled Machine Learning 🔸 Video 2️⃣ RL Systems by Ion Stoica Slides : 🔸 Slide 🔸 Video 3️⃣ Computer Vision Made Simple by Reza Zadeh 🔸 Slides 🔸 Video 4️⃣ Machine Learning for Biomedicine at Scale by Jennifer Chayes 🔸 Slides 🔸 Video 5️⃣ Systems and Machine Learning" by Jeff Dean 🔸 Slides 🔸 Video 6️⃣ Role of Tensors in Large-Scale Machine by Anima Anandkumar 🔸 Slides 🔸 Video 7️⃣ Meta Learning & Self Play by Ilya Sutskever 🔸 Slides 🔸 Video 8️⃣ Large-scale Deep Learning with Keras by Francois Chollet 🔸 Slides 🔸 Video 9️⃣ Scaling of Machine Learning by Bill Dally 🔸 Slides 🔸 Video 🔟 Specialized Deep Learning with Graphcore by Simon Knowles 🔸 Slides 🔸 Video ☑️ Machine Learning at Facebook: An Infrastructure View by Yangqing Jia 🔸 Slides 🔸 Video ❇️ @AI_Python 🗣 @AI_Python_arXiv ✴️ @AI_Python_EN
Here is the list of resources to learn Data Structures and Algorithms from beginner to advance: 📑 Prerequisite - MIT's Mathematics for Computer Science: 🔸 https://lnkd.in/ejdPkSs 📌 Khan Academy - Intro to algorithms: 🔸 https://lnkd.in/e8ZUWwz 📌 Introduction to Algorithms Book by Charles E. Leiserson, Clifford Stein, Ronald Rivest, and Thomas H. Cormen: 🔸 https://lnkd.in/e8iqvwn 📌 GeeksforGeeks - Data Structures Tutorials: 🔸https://lnkd.in/eiFACVV 📌 MIT - Introduction to Algorithms: 🔸 https://lnkd.in/eKavb3T 📌 Coursera - Data Structures and Algorithms Specialization: 🔸 https://lnkd.in/eDk8ZuY 📌 Coursera - Algorithms Specialization: 🔸 https://lnkd.in/ejJw5TV 📌 MIT - Advanced Data Structures: 🔸 https://lnkd.in/eKA7FD2 📌 GeeksforGeeks - Advanced Data Structures Tutorials: 🔸 https://lnkd.in/eu2J-Bm 💡 I also found this interesting website which explains Data Structures and Algorithms through animations - 🔸 https://visualgo.net/en #منابع #datastructures #algorithms #mathematics #machinelearning #computerscience ✴️ @AI_Python_EN ❇️ @AI_Python
‌ مجموعه پادکست کاربردهای هوش مصنوعی در کسب و کار بخش چهاردهم: جان دیر – John Deere برخی مطالب پوشش داده شده: – تاریخچه و سوابق جان دیر – ابتکارات جان دیر در حوزه تکنولوژی – چالش جهانی تأمین غذا و کشاورزی – مشکلات ناشی از کودها و سموم – استفاده از یادگیری ماشین در سم‌پاشی – دستاوردهای شرکت بلو ریور – مفهوم کشاورزی دقیق (Precision Agriculture) – تأثیرات استفاده از کشاورزی دقیق – سیستم FarmSight – فرصت‌های موجود در کشاورزی دیجیتال – چالش‌ها و موانع کشاورزی هوشمند 📚 مراجع: 1️⃣ کتاب Artificial Intelligence in Practice، انتشارات وایلی، ۲۰۱۹ 2️⃣ مدخل جان دیر در ویکی‌پدیا 3️⃣ دستاوردهای جان دیر در حوزه نرم‌افزار و یادگیری ماشین 4️⃣ کشاورزی دقیق 5️⃣ مرور فعالیت‌های بلو ریور 6️⃣ مجموعه ابزارهای نرم‌افزاری و هوشمند جان دیر 7️⃣ گزارش سازمان ملل — چشم‌انداز جمعیت جهان ✴️ شنیدن این اپیزود در دیگر پلتفرم‌ها 🔗 کست‌باکس [+] 🔗 اینستاگرام [+] #پادکست #هوش_مصنوعی ـــــــــــــــــــــــــــــــــ سید مصطفی کلامی هریس وبسایت: kalami.ir کانال رسمی: ‎@KalamiHeris کانال پرسش و پاسخ: ‎@Kalami_QA ‌
#تجربه یک بحثی رو توی لینکدین دیدم از تعریف افراد از Senior، وقتی نظرات رو خوندم یک سلسله تعاریف خیلی شخصی بود. با توجه به تجربه خودم و مصاحبه‌هایی که داشتم (کم نیست 😁) گفتم تعاریفی که متوجه‌اش شدم و معقول بود رو توضیح بدم : سنیور توی جاهای مختلف تعاریف متفاوتی داره خیلی از کسایی که توی لینکدین لقب سنیور برای خودشون میزارن نمی‌دونن چقدر توقع کارفرما رو بالا میبره، ( بیشتر بین‌المللی منظورم هست) و اکثراً بخاطر همین توی مصاحبه اول رد میشن (شخصاً این لقب رو نداشتم توی پروفایلم به همین دلیل و البته بار مسئولیت راهنمایی junior ها) شرکت‌های داخلی تقریبا کاری به کیفیت کد و ... ندارند ینی توی ایران میشه حتی با میزان سالی که توی یک شرکت کد زدید senior یا بالاتر از اون specialist بشید. توی برخی شرکت‌ها، میزان توجه شما به task ایی که بهتون داده شده هست، ینی علاوه بر اینکه شما همواره زمانبندی و ... خوبی دارید کدهای تمیزی میزنید، code review باقی افراد گروه رو انجام میدید، داکیومنت‌های آموزشی شرکت رو آپدیت ٫ ایجاد می‌کنید و البته optimization رو هم آشنا هستید، توی ML و ... شناخت بیزینس هم بهش اضافه میشه اما بیشترین تعریف که به همه حوزه‌های کامپیوتر میخوره (شبکه، لینوکس، برنامه نویس و ... ) اینه که شما کارهای خودتون رو به خوبی و بدون نیاز به کسی انجام می‌دید (ینی اگر تسک سختی هم بهتون داده بشه خودتون راه خودتون رو پیدا می‌کنید و انجامش میدید) و علاوه بر اون نیروهای junior هم تیمی رو هم مدیریت می‌کنید که بهینه و درست کار کنند، تا توی کمترین زمان بهترین خروجی رو بدند مرجع (گوگل، استک اورفلو) نیرو‌های جونیور شرکت می‌شید خلاصه هم توی منطق هم توی نحوه کد زدن. این ۳ مورد ۹۹٪ مواردی بوده که شخصاً دیدم. برای همین خیلی خیلی مهمه که حتی اگر کار فعلی رو توش خبره هستید بازم کدهای دیگران (گیت) بخونید و از لحاظ آموزش آپدیت باشید.
فرصت شغلی (ریسرچر یا دانشجوی اینترنشیپ) در کشور کره جنوبی 🇰🇷 * یک آزمایشگاه معتبر در یکی از دانشگاه‌های معتبر (رنکینک زیر ۹۰) در کشور کره جنوبی قصد دارد یک توسعه‌دهنده استخدام نماید. * این پروژه با همکاری فیسبوک انجام می‌شود. * موضوع پروژه در مورد متاورس است. بطور مثال یک شخص از راه دور و با کمک واقعیت مجازی باید بتواند ماشین‌آلات موجود در کارگاه را به کار بیندازد. به طور کلی لازم است نمونه های اولیه با استفاده از تلاقی الگوریتم های بینایی کامپیوتری برای عکاسی محاسباتی سه بعدی، رندر عصبی، بازسازی صحنه، تصویربرداری محاسباتی، کیلومتر شماری بصری-اینرسی، تخمین حالت، ترکیب حسگر، نقشه برداری و محلی سازی، ساخته و تست شود. * روال استخدام بدین شکل است که ابتدا مدارک مربوطه را به ایمیل ارسال می‌کنید. * در صورتی که سابقه و تحصیلات متناسب با پروژه بود به مصاحبه دعوت می‌شوید. * شخص در وهله اول توسط سر تیم ایرانی مصاحبه می‌شود و در صورت قبولی، در مرحله دوم توسط استاد کره‌ای مصاحبه می‌شود که تصمیم نهایی را ایشان می‌گیرند. * تسلط به زبان انگلیسی نیاز است. (مدرک زبان نیاز نیست ولی مزیت محسوب می‌شود) * در صورت قبولی، شخص به کره دعوت می‌شود و کار خود را شروع می‌کند. * مدت این پروژه حدود یک سال است. * اشخاص نباید برای خروج از کشور مشکلی داشته باشند. (آقایان مشکل سربازی نداشته باشند. در صورت نیاز مدارک مربوطه درخواست خواهد شد.) * افراد متقاضی لازم است پویا و مشتاق یادگیری بوده و در یک یا چند حوزه‌ی زیر مسلط یا آشنایی نسبی داشته باشند: - برنامه نویسی پایتون یا c++ - آشنایی کلی با یک یا چند مفهوم از مفاهیم واقعیت مجازی (AR)، واقعیت افزوده(VR)، واقعیت ترکیبی (MR)، واقعیت توسعه یافته Extended Reality (XR) / Metaverse - یادگیری عمیق (Deep learning) - الگوریتم‌های بینایی ماشین و پردازش تصویر - نرم‌افزارهای Rhino و Unity * مدارک ارسالی در ایمیل: - رزومه - آخرین مدرک تحصیلی - ریزنمرات - انگیزه نامه (به زبان فارسی هم قابل قبول است) * عنوان ایمیل: ریسرچر [email protected]
نسخه جدید کتابخانه بورس تهران در پایتون منتشر شد! https://youtu.be/5ktBsR9Em58 کار اصلی این کتابخانه دریافت اطلاعات مالی موجود در سایت tsetmc است، در نسخه جدید امکانات زیادی به کتابخانه اضافه شده و البته بهبودهای خوبی هم در عملکردش انجام شده: - راه‌اندازی ابتدایی و دریافت اطلاعات کلی شرکت‌ها بلافاصله بعد از این اجرا - دریافت اطلاعات کامل قیمت شامل بیش از ۱.۲ میلیون قیمتی و ۲۱ سال تاریخچه سهام - دریافت اطلاعات آنی از روی تابلو - دریافت اطلاعات مربوط به افزایش سرمایه و تعدیل قیمت - سازگار با pandas - پشتیبانی کامل از تاریخ شمسی با کمک کتابخانه jalali-pandas - قابلیت انتقال دیتابیس از sqlite به هر دیتابیس دیگری مانند postgresql با تغییر در فایل config - امکان بک‌تست استراتژی‌ها با بسامد روزانه - ... برای دریافت کتابخانه و راهنمای نصب و استفاده می‌تونید به صفحه گیتهاب اون مراجعه کنید: https://github.com/ghodsizadeh/tehran-stocks برای راهنمای کامل می‌تونید به پست بلاگ مراجعه کنید: https://learnwithmehdi.ir/posts/tehran-stocks-python/ برای مشاهده ویدیوی معرفی و مشاهده عملی کار با کتابخانه از لینک زیر استفاده کنید: https://youtu.be/5ktBsR9Em58 راه‌های حمایت از این کتابخانه در صفحه گیتهاب توضیح داده شده ولی مهمترین حمایت چیزی جز انتشار این کتابخانه و معرفی کتابخانه و کانال یوتوب به دیگرانه. پیشاپیش ممنون از حمایت شما. @learn_with_mehdi
#Roadmap 2022 این رو برای یک دوستی که تازه داره سعی می‌کنه وارد، ماشین‌لرنینگ بشه نوشتم ؛ اول اینکه توجه کنید, ۱- ایشون تازه برای کارشناسی بورسیه گرفته و قراره شروع کنه درسش رو ۲- پایتون رو در سطح متوسطی بلد هست و چندسالی هست که کد میزنه (Data structure, Algorithm رو متوجه‌ هست) ۳- علاقه شدیدی به هوش مصنوعی داره و برخلاف خیلی‌ها که می‌خوان سریعتر کد بزنن ترجیح میده وقت بیشتری توی مقدمات بذاره تا حرفه‌ای تر جلو بره RoadMap : 1- Numpy (and scipy): . Python Numpy Beginners (AI publishing) . Scientific Computing with Python .... 2nd edition (Claus Fuhrer - packt pub) * High performance python ... 2nd edition (O'Reilly) 2- Pandas: Effective Pandas (Matt Harrison) Pandas in Action (Manning Pub) Pandas 1.x cookbook ... 2nd edition (Packt pub) 3- Matplotlib (or other visualization libs) Hands on matplotlib (Ashwin - Apress pub) Data visualization with python for beginners ... ( AI publishing) چیزی که خیلی مهمه اینه کار با OOP، api رو توی این کتابخونه یاد بگیرید. 3- Data Engineering نه کامل اما بعضی مباحث واقعاً لازم هست : Sql / NoSql / PySpark اینها مباحثی هست که خیلی بدرد میخوره معمولاً 4- Scikit-learn : Hands on machine learning with scikit-learn, ... (O'Reilly) - Part 1 only Machine learning with pytorch and scikit-learn (Packt pub) - Part 1 only 5- Story telling کتاب‌های زیادی برای این مورد وجود داره که بسته به علاقه و نوع نوشتاری که می‌پسندید می‌تونید انتخاب کنید اما این بخش رو اصلا دستکم نگیرید (۹۹.۹٪ آموزش‌ها این موضوع رو منتقل نمی‌کنند و ۱۰۰٪ توی کار این موضوع واجب و حیاتی هست) 6- آمار و احتمالات / ریاضیات / جبر بستگی به خودتون داره؛ اگر فکر می‌کنید لازم هست کمی ریاضیات پایه رو مرور کنید آمار و احتمال رو شاید بهتره حتی قبل از scikit-learn مرور کنید کتابهای با عنوان statistical learning وجود داره برای پایتون که به سلیقه خودتون می‌تونید بخونید. 7- Deep learning (practical) ۲ تا کتابی که برای Machine learning معرفی کردم بخش دوم هر ۲ کتاب رو می‌تونید اینجا شروع کنید Deep learning with python 2nd edition (Manning pub) هم حتماً برای اونایی که Tensorflow هم می‌خوان کار کنند باید خونده بشه اگر قرار هست کارهای deploy , ... هم انجام بدید اون خودش ی roadmap اساسی میخواد اما بطور ساده : ML engineering / MLOps / Linux / Docker / Api development (FastApi) / Edge deployment (Tiny ML) حداقل چیزهایی هست که لازم دارید. بعد با توجه به بیزینس و علاقه به بخش‌های مختلفش شاخ و برگ میدید. پ.ن : برای بخش‌های مختلف چندکتاب معرفی شد، چون نوع نوشتار بعضی از کتابها ممکن مورد پسند شما نباشه لازم نیست همه‌ی چند مورد رو بخونید. کتاب : High performance python جزو واجبات هست که بنظرم همه باید بخونند.
#آموزش #تجربه #مصاحبه ببخشید کمی طولانی هست : سال قبل ی گروه ۷-۸ نفره ایرانی تازه فارغ‌التحصیل برای یادگیری پایتون داشتم که خب می‌خواستند وارد بازار کار بشن و قرار بود practical coding فقط باشه چند ماه پیش ۲ تا از بچه‌ها که هم خونه هستند پیام دادند که میخواهند از شرکت فعلی به شرکت دیگه‌ای برند حالا ۱ سال تجربه دارند و می‌خواهند اینبار کلاس داشته باشند بطوری که خودشون رو بجای Junior بعنوان Mid-level معرفی کنند. برای senior شدن واقعاً یک فاکتور به اسم زمان دخیل هست حالا درسته تجربیات خوب و تیم خوب باعث میشه سریعتر به این مهم برسید ولی همونم حداقل ۲ سال زمان میبره به شرطی که هر روزش پر از یادگیری باشه. اما برخلاف تصور و حرفای چرت و پرتی که گفته می‌شه mid-level شدن رو میشه از زمان جدا کرد طوری که اولین شغلی که میگیرید حتی بعنوان Mid-level دستمزد داشته باشید (مثالش بسیار هست و واقعاً دوستان اینطوری رو داریم تو کانال) ازونجایی که وقت نداشتم براشون کلاس برگذار کنم گفتم که با شخص دیگری کلاس داشته باشند ۲ تا نکته واقعاً اذیت کننده بود : ۱- دستمزد، کسانی که باهاشون صحبت کرده بودند (پیام‌هارو دارم) برای جلسات ۱ ساعت قیمت‌هایی تا ۴-۵ میلیون تومان داده بودند. من نمیدونم داستان چیه، ولی چرا تا ی ایرانی مقیم خارج می‌بینید می‌خواید همه مشکلات درآمدی رو جبران کنید !؟ اضافه کنم که این افراد مقیم ایران هم بودند و این رقم‌ها رو درخواست کردند ( یعنی مسئله پرداخت ریالی و خرج به دلار نیست) مشکل من با این عدد بالا بعنوان دستمزد نیست، بعضی از اساتید بیشتر ازین هم ارزش داره کلاس‌ هاشون ( ۱ در هر ۱ میلیون استاد ) مشکلم با سرفصل‌هایی هست که ارائه داده بودند برای mid-level ۲- سرفصل : خیلی‌هاشون زده بودن کار با درایور دیتابیس (mongodb - postgres) ی چندتا زده بودند : PySpark چرا دارید کار با ابزار یاد میدید !؟ دوستان دقت کنید : ی Junior باید توانای خوندن داکیومنت و یادگرفتن کار با ابزار رو داشته باشه فقط ممکن هست زمانبر باشه براش (این چیزی هست که همه توی دوره‌ی Internship یاد میگیرند). اینکه ابزار یاد بدند برای مصاحبه‌های خاص و مشاغل خاص هست مثلاً اگر این دوستان می‌خواستند بعنوان Data engineer شرکت کنند بله خوب بود که pyspark هم توی سرفصل‌ها باشه نه برای software engineer چندتا مورد دیگه هم که باز اوضاع خوبی نداشت : Clean code, Git , .... بود همین پیگیری استاد ازشون ۱ ماه وقت گرفت وقتی دوباره بهم پیام دادند و موارد بالا رو فرستادند دیدم وقت کمی دارند و براشون ۲ تا نکته جم و جور فرستادم که فقط توی مصاحبه بتونند خودشون رو mid-level نشون بدند : 1- system design 2- documentation (on git projects) پ.ن : الگوریتم و data structure رو می‌دونستم بلد هستند. دیشب پیام دادند که هر قبول شدند توی مصاحبه‌ و کار جدید رو قراره شروع کنند، برای همین ترجیح دادم این مورد رو برای دوستان تازه‌کار بذارم بازم از مزایای درک درست system design خواهم گفت. حتی توی مصاحبه‌های غیر از software engineering و حتی در ML/DL
‌ مجموعه پادکست کاربردهای هوش مصنوعی در کسب و کار بخش پانزدهم: والمارت – Walmart اهم مطالب: – تاریخچه و سوابق والمارت – روش کار والمارت در بازار خرده‌فروشی – اهمیت انبارداری و کنترل موجودی در خرده‌فروشی – تحلیل و پیش‌بینی تقاضا – نوآوری‌های والمارت برای بهبود تجربه مشتریان – اپلیکیشن والمارت – روبات‌های مستقر فروشگاه‌های والمارت – ابزارها و فناوری‌های مورد استفاده – کلان‌داده یا بیگ‌دیتا در والمارت – نتایج، چالش‌ها و ایده‌ها 📚 مراجع: 1️⃣ کتاب Artificial Intelligence in Practice، انتشارات وایلی، ۲۰۱۹ 2️⃣ مدخل والمارت در ویکی‌پدیا 3️⃣ رقابت والمارت و آمازون 4️⃣ روبات‌های مستقر در شعب والمارت 5️⃣ استفاده از روبات‌ها در فروشگاه‌های والمارت 6️⃣ اخبار مربوط به بوسا نووا 7️⃣ کلان‌داده یا بیگ‌دیتا در والمارت 8️⃣ بینایی ماشین در والمارت 9️⃣ کاربرد هوش مصنوعی در والمارت ✴️ شنیدن این اپیزود در دیگر پلتفرم‌ها 🔗 کست‌باکس [+] 🔗 اینستاگرام [+] #پادکست #هوش_مصنوعی ـــــــــــــــــــــــــــــــــ سید مصطفی کلامی هریس وبسایت: kalami.ir کانال رسمی: ‎@KalamiHeris کانال پرسش و پاسخ: ‎@Kalami_QA ‌
GraphML arXiv: Hypergraph NNs, GNNs are dynamic programmers, latent graph learning, 3D equivariant molecule generation, and a new GNN library for Keras. △ Hypergraph Neural Networks: - Message Passing Neural Networks for Hypergraphs - Hypergraph Convolutional Networks via Equivalency between Hypergraphs and Undirected Graphs ft. Yu Rong. - Preventing Over-Smoothing for Hypergraph Neural Networks ⅀ Theory: - Graph Neural Networks are Dynamic Programmers ft. Petar Veličković. - OrphicX: A Causality-Inspired Latent Variable Model for Interpreting Graph Neural Networks - Shift-Robust Node Classification via Graph Adversarial Clustering ft. Jiawei Han. - Mutual information estimation for graph convolutional neural networks - Graph-in-Graph (GiG): Learning interpretable latent graphs in non-Euclidean domain for biological and healthcare applications ft. Michael Bronstein. 🏐 Equivariance and 3D Graphs: - Equivariant Diffusion for Molecule Generation in 3D ft. Max Welling. - 3D Equivariant Graph Implicit Functions 📚 Libraries and Surveys: - GNNkeras: A Keras-based library for Graph Neural Networks and homogeneous and heterogeneous graph processing ft. Franco Scarselli. - Graph Neural Networks in IoT: A Survey 🔨 Applications: - Graph similarity learning for change-point detection in dynamic networks ft. Xiowen Dong. - Multilingual Knowledge Graph Completion with Self-Supervised Adaptive Graph Alignment ft. Yizhou Sun. - A Simple Yet Effective Pretraining Strategy for Graph Few-shot Learning - Pretraining Graph Neural Networks for few-shot Analog Circuit Modeling and Design ft. Pieter Abbeel. #مقاله ❇️@AI_Python
دوستان یک ماجرای واقعی رو براتون باید شرح کنم که واقعا کل اینهمه سال که من توی آکادمیا برای بچه های ایران زحمت کشیدم، همه رو بهم ثابت کرد که به اشتباه بوده. ماجرا از اینجا شروع شد که استادیار دانشگاه تربیت مدرس به اسم آقای مهدی ذوالفقاری ، https://www.modares.ac.ir/~m.zolfaghari دو تا از مقالاتی که باهم کار میکردیم رو یهو سابمیت میکنن، و اکسپت میگیرن، بدون اینکه اصلا به من خبر بدن، و بدون اسم من چاپ میکنن، بعدش من خبردار شدم، ایشون کلی گریه و زاری و کلی مسیج که آقا من اشتباه کردم ، بدبختم، خانواده دارم، منو از کار بیکار میکنن و فلان، ول کن شکایت نکن، همه مدارک لازم برای اثبات اینکه مقالات کاملا با نظارت من نوشته شده، ورژن های اولیه، کامنت های من روی مقاله، تغییراتی که اعمال کردم همه دونه دونه وجود داره این لینک مقاله اول https://link.springer.com/article/10.1007/s12053-019-09800-3 که هنوز کار نهایی نشده بود! یهو بعد از ورژنی که به این فرد فرستادم، دیدم وا! گوگل ریکام زده که فلان مقاله ای شبیه کارهات چاپ شده. بد نیست نگاه کنی، اومدم دیدم ورژن ماقبل نهایی فرستاده شده و چاپ شده ! مقاله دوم https://www.sciencedirect.com/science/article/abs/pii/S095741742100590X# هم انگار برای شاگردشون ( به نام صمد غلامی که در گروه هم با این ID هست @gami_saman ) بوده که دوباره همین اتقاق افتاد، به من گفت بجای اون مقاله، یکی دیگه رو بخدا باهم کار میکنیم، این دومی رو فرستاد، من دوباره شروع کردم به کامنت و اصلاح این مقاله دوم. دوباره بعد از اعمال اونا، بدون اینکه با من هماهنگ کنن مقاله فرستاده شد و چاپ شد. بازم ورژن های مقاله رو دارم و همه چی موجوده. حتی من کامنت های این استاد که چقدر به خودش فحش داد که من بیچاره ام و فلان و تورو خدا شکایت نکن و اینا رو هم دارم، در این وسط، قبل از چاپ کردن مقاله دوم، ایشون گفتن دوتا دانشجو هم دارن که علاقهمند به مقاله نوشتن هستن اما تجربه ندارن. با اینا کار کن و فلان و اگه مقاله ای در اومد دیگه من از خجالت تو در بیام . دو تا دانشجوش یکی همین صمد غلامی بود. و دومی یه شارلاتان بدتر از خودش بنام مهراد اسدی ( مشخصاتش رو فرستادم) من یکسال وقت گذاشتم این دو نفر یه مقاله نوشتن، موضوع هم خیلی ژورنال پسند نبود، اما اونقدر ما باهم جلسه داشتیم تا اینکه همه چی بلاخره رسید به سابمیت. مقاله رو یکی دوجا فرستادیم ریجکت شد، تا اینکه special issue یک ژورنالی من دوتا از همکارهام داور بودن، گفتن مقاله کریپتو داری بفرست، من این مقاله رو به عنوان نویسنده اول و این دو نفر رو هم نفر دوم و سوم زدم و یک استادی هم از دانشگاه ساوتهمتون رو فقط برای اینکه اعتبار کار بره بالا گذاشتیم نویسنده مسئول و فرستادیم. دور اول داوری گرفت، همه هم راضی که مقاله داوری گرفته و این دو نفر شروع کردن به کار نکردن. به من یک جوابیه فرستادن که کلش رو ۱۰۰ ٪ از اول نوشتم. برای داوری مقاله ۲۶ صفحه جوابیه نوشتم. همش هست، چیزی که این دو نفر فرستاده بودن هم هست، کاری که من نوشتم هم هست، ۹۰ درصد چیزی که فرستادن رو عوض کردم چون اشتباه بود، مجبور شدم کلی دعوا کنم باهاشون و بیخیال اینا بشم و در کل جوابیه رو از اول درست بنویسم. مقاله رو سابمیت کردیم ( با همون ترتیب ۴ نفری و بدون هیچ تغییری ) دوباره یک ریوایز بشدت سنگین دیگه از داوران گرفتیم، مجله بسیار مجله گیری هست. بهشون گفتم بیا کار کنیم، صمد دقیقا گفت من نیستم، اسم منو هم نزن (مسیج اش رو هم میفرستم بهتون) این شارلاتان، مهراد اسدی، گفت من دیگه جوابیه اینا نمینویسم. خودت جواب بده و من حقم اصلا خیلی بیشتره. متوجه نشدم کسی که ورژن اول نفر دوم بود و بعد دو دور جوابیه داوری کاری نکرد ، چرا یهو فکر کرد حقش بیشتره !!!!. من دوباره با یکی از بچه های اینجا بالای ۲۰ صفحه جوابیه نوشتیم، یک کلمه این دو نفر نمیدونن چی اصلا نوشتیم چی سابمیت شده ، چون تقریبا ۷۰ درصد مقاله کلا عوض شد، مطالب اون ورژن اول رو انداختیم توی اپندیکس و اینبار ۵ نفری سابمیت کردیم. چون این آقای صمد غلامی گفته بودن نه من کاری دیگه میخوام بکنم و نه اسمم تو لیست باشه، مقاله رو بجای اسم آقای صمد غلامی، اون فردی که از ساوتهمتون کمک کرد برای ریورژن دوم ، اسم اون رو جایگزین کردیم و فرستادیم، ادیتور مقاله به من ایمیل زد که چرا صمد حذف شده. منم گفتم که خودش گفته علاقه ای نداره، و متن چت رو به ادیتور فرستادم ( توی چت صمد، من انگلیسی نوشته بودم جواب صمد فارسی بود اما اونا گفتن اوکیه، مترجم داریم) در این حین من به جفتشون ( صمد و شارلاتان اسدی) ایمیل زدم که آقا تاییده بدین اگه نمی‌خواین در راند های بعدی داوری دوباره باشین، باید بگین، نمیشه مثل راند قبل هیچ کاری نکنید و من اسمتون رو بزنم، اگه اینجوریه من جفتتون رو حذف میکنم.
در همین زمان این شارلاتان اسدی به ادیتور ایمیل زد، گفت این کار فقط مال منه ، این همه آدم که اینهمه کار کردن هیچ حقی ندارن و کل این یکسال که ما اینهمه داوری جواب دادیم کل مقاله عوض شده به ظن ایشون مهم نبوده! در ادامه به ادیتور گفته ساسان براک از ایرانی ها سوء استفاده میکنه، و کل مقالاتش هر چی با ایرانی ها بوده مجبور کرده اونارو اسم اش رو بزنن، کلا علم نداره، توی کار تجارت مقاله هست و ... ای جماعت ، هر کسی با من مقاله که کار کرده که چاپ شده، من اسم اش رو نزدم، حقش رو خوردم، چیزی کار کسی بوده من به نام خودم زدم. هر چیزی اگه بوده. زیر این کامنت لطفا بگه، اگه نبوده، من باید از این شارلاتان شکایت کنم، شما هم شاهدم باشین، آقا اینجوری نیست که من عمرم رو بزارم اینجا که شما یاد بگیرین، یه قرون نه سودی میکنم، نه ذره ای چشم داشت دارم، بعدش یه جا** بیاد آبروی مارو ببره و عین خیالش نباشه من خیلی آدم کلاشی بودم، همین استادت دو تا مقاله مارو زد به نام خودش، جلوی اون وایمیستادم، من به این شارلاتان میخواست بره اروپا ارشد بخونه، چندین ریکام دادم، ساعت ها بابت دانشگاه و دکترا و ارشد و کار کردن با استادها مشاوره بهش دادم. اون داور در کل بعد از ایمیل این اقا مقاله رو سریعا ریجکت کرد و کلا مقاله مختومه شد، حالا این آدم شروع کرده به نوشتن به همکارهای من که ساسان براک از ایرانی ها سوء استفاده میکنه و بهشون زور میگه و .... انسان کثافت، من اگه دنبال مقاله و این مزخرفات بودم، بجای صرف کردن وقتم اینجا و ورک شاپ گذاشتن برای شما، و پرزنت کتاب ،و ۴ سال تلف کردن عمرم اینجا، و جواب دادن به تو احمق، میشستم فرت فرت مقاله می‌نوشتم! من الان البته خیلی وقته دنبال شرکت و اینام، مقاله اصلا برام اهمیت نداره، چرا باید کسی که کار کرده ازش سو استفاده کنم، طرف التماس میکنه بیا اسمت رو بزنیم توی مقاله ، من نخواستم. چرا باید اینهمه تو عوضی باید کثافت باشی که اینجوری بخوای یکی که کل عمرش رو گذاشته برای جامعه ایرانی ها خدمت کنه رو خراب کنی. از این هفته کتاب خوانی اینا دیگه نخواهیم داشت، تا این فرد به ... خوردن جلوی جمع نیوفته، من ترجیح میدم هیچ کاری با دانشجویان ایرانی دیگه نداشته باشم. نتیجه یک استاد کلاش، یه شاگرد کلاش مثل این میشه ، اطلاعاتش رو میدم، هر جور دوست دارین باهاش ارتباط بگیرین
‍ 👀بینندگان عزیز توجه فرمایید 👀 🙆‍♂️ بوتکمپ APSignals با افتخار تقدیم میکند🙆‍♀️ ✍️| ثبت نام دوره سوم صفر تا فول استک بوتکمپ APSignals آغاز شد. 🤩👇🏻زبان و تکنولوژی هایی که در این دوره شما یاد میگیرید🤩👇🏻 🔘 HTML 🔘 CSS 🔘 JavaScript 🔘React 🔘Node.Js 🔘MongoDB 🔘Express.Js 🤠👇🏻همچینن علاوه بر یادگیری تکنولوژی هایی که ذکر کردیم، ما به شما موارد زیر را هم یاد میدیم🤠👇🏻 🔸ما به شما در این بوتکمپ یاد میدیم که انگلیسی خودتون رو تقویت کنید. 🔸بهتون کمک میکنیم که رزومه (CV) خودتون رو بسازید. 🔸 شما در این بوتکمپ یاد میگیرید که چطور صفحه لینکدین شخصی خودتون رو بسازید. 🔸ما در این دوره به شما رو با گیت آشنا میکنیم و همچنین شما یاد میگیرید که چطور یک اکانت گیت هاب برای خود بسازید. 🔸مهارت سافت اسکیل را یاد میگیرید که برنامه نویس بهتری تبدیل بشید. همه و همه موارد ذکر شده رو شما میتونید در بوتکمپ APSignals تجربه کنید و از یادگیریشون لذت ببرید😁 پس منتظر چی هست همین الان وارد گروه زیر شو😎👇🏻 راستی یادم رفت بگم مهلت ثبت نام دوره سوم از 21 خرداد ماه شروع و 29 خرداد ماه تموم میشه😱 پس منتظر چی هستی، همین الان ثبت نام کن و از طریق لینک زیر وارد گروه APSignals شو و اطلاعیه های گروه و کانال رو چک کن😉 https://t.me/+1ooN1CJNVuxkZWQ0 @APSignals_PER
احتمالا برای شما هم این سوال پیش میاد که اگر می‌خواییم یه مدل تولید متن رو وارد فضای استقرار کنیم و در معرض پرسش و پاسخ با مشتری واقعی قرار بدیم چرا از معماری‌های قدرتمندتری، مثل مدل‌های مبتنی بر GPT-3 استفاده نمی‌کنیم؟ مدلی مثل Davinci (که می‌تونین روی سایت openAI باهاش بازی کنین) می‌تونه با یه متن اولیه (پراپمت) خیلی خوب عمل کنه. برای مثال یه متن اولیه به این شکل بهش می‌دیم: I am a customer service chatbot. I am very kind and polite. I answer smalltalks and chitchats. My name is David, I am from Italy and I work for a Pizzeria. - user: what is your name? - bot: I am David. - user: I love you david. - bot: [….] و از این به بعدِ مکالمه رو خودش تکمیل می‌کنه. در واقع کاری که ما کردیم اینکه از توانایی مدل زبانی استفاده کردیم و یه شخصیت بهش بخشیدیم تا بتونه بعنوان یک چت‌بات عمل کنه. ولی ❌ مسئله اصلی منابع محاسباتیه! در واقع از کوچک‌ترین مدل‌های مبتنی بر GPT-3 -که بصورت متن‌باز در دسترس هستن- مدل‌هایی مثل GPT-Neo یا GPT-J هستن. هرچند این مدل‌ها تعداد پارامترهای خیلی کمتری نسبت به Davinci که توسط openAI تعلیم دیده دارن ولی برای پیاده‌سازی کاملشون بعنوان سرویسی که در هر ثانیه پاسخگوی چندین مشتری باشن، به منابع عظیمی نیاز هست که در حال حاضر برای ما توجیهی نداره. برای همین ما به سراغ مدل‌های کوچکتری مثل dialoGPT رفتیم. یه خوبی دیگه این مدل اینکه مشخصا با دیتای گفتگوی افراد روی Reddit تعلیم دیده و خیلی راحت‌تر احساس گفتگو رو میشه از متن‌هایی که تولید می‌کنه گرفت. با این حال ما هم کماکان در حال آزمون و خطا هستیم باهاش. راستی! شما اطلاعای درباره‌ی مدل‌های زبانی فارسی دارین که روی دیتای گفتگو تعلیم داده شده باشن؟
جزوات زیر از روی دوره یادگیری ماشین دکتر مهدیه سلیمانی از دانشگاه شریف نوشته شده. کل دوره 23 جلسه است و ویدیو هر جلسه در مکتب‌خونه موجود می‌باشد. ✅ لیست جلسات: 🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه اول - مقدمه و معرفی یادگیری ماشین 🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه دوم - تخمین ML و MAP 🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه سوم - رگرسیون خطی و گرادیان کاهشی 🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه چهارم - رگرسیون غیرخطی 🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه پنجم - خطای روی کل توزیع و مفاهیم بایاس و واریانس 🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه ششم - رگرسیون با دیدگاه احتمالاتی، کلسیفیکیشن 🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه هفتم - ادامه کلسیفیکیشن و دسته‌بندی چند کلاسه 🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه هشتم - دسته‌بند احتمالاتی 🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه نهم - ادامه دسته‌بند احتمالاتی، رگرسیون لاجیستیک 🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه دهم - دسته‌بند SVM 🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه یازدهم - ادامه دسته‌بند SVM و کرنل 🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه دوازدهم - ادامه کرنل و دسته‌بند درخت تصمیم 🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه سیزدهم - ادامه دسته‌بند درخت تصمیم 🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه چهاردهم - تئوری یادگیری 🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه پانزدهم - ادامه تئوری یادگیری 🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه شانزدهم - یادگیری مبتنی بر نمونه (Instance-Based) 🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه هفدهم - ادامه بحث يادگيری مبتنی بر نمونه و شروع يادگيری جمعی (Bagging و Boosting) 🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه هجدهم - ادامه يادگيری جمعی (Bagging و Boosting) 🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه نوزدهم - انتخاب ويژگی و روش PCA 🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه بیستم - ادامه روش PCA و شروع Clustering 🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه بیست‌و‌یکم - ادامه Clustering 🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه بیست‌و‌دوم - بررسی Clustering با دیدگاه احتمالاتی 🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه بیست‌و‌سوم - Reinforcement Learning #منابع #الگوریتمها #هوش_مصنوعی #فیلم #کلاس_آموزشی ❇️ @AI_Python
سلام سلام ویدیوی جدید آماده شد و یک استراتژی واقعی رو با کمک دیتای بورس تهران و پایتون بررسی می‌کنیم. توی این ویدیو با کمک یک استراتژی ساده یعنی میانگین متحرک ساده (SMA) یک برنامه‌می‌نویسیم که موقعیت‌های خرید و فروش رو برامون مشخص می‌کنه و بازده تاریخی استراتژی رو در مقایسه با خرید و نگه‌داری اون سهم بهمون نشون می‌ده: در مورد سهامی که توی این ویدیو بررسی کردیم بازدهی خیلی خوبتری از بازار داشت!!!! البته برای این استراتژی کارهای متفاوتی رو انجام دادیم: - دریافت اطلاعات قیمتی سهام با کمک بسته بورس تهران - پیاده‌سازی فیچرهای مورد نیاز برای استراتژی با کمک pandas - مشخص کردن موقعیت خرید و فروش و محاسبه بازده سهام و استراتژی با کمک matplotlib - ساخت یک تابع برای پیاده‌سازی استراتژی با پارامتر‌ها و سهام مختلف این ویدیو رو میتونید از طریق لینک زیر تماشا کنید: https://bit.ly/lwm-algo05-sma ————————————————- لینک عضویت در کانال: https://bit.ly/lwm-youtube لینک گیتهاب پروژه الگوریتم تریدینگ: https://github.com/ghodsizadeh/algo-trading-yt لینک گیتهاب پروژه بورس تهران در پایتون: https://github.com/ghodsizadeh/tehran-stocks @learn_with_mehdi
ارمغانی دیگر از قلمرو مولتی‌مودال! تولید تصاویر انسانی با استایل‌های مختلف. جذابیت مدل‌‌های generative مخصوصا در حوزه تصویر داره میل به بی‌نهایت می‌کنه. مدل‌هایی مثل deep fake قبلا خیلی گرد و خاک کردند. اخیرا مدلی به‌نام Text2Human معرفی شده که با استفاده از جملات متنی یک استایل از انسان واقعی رو تولید می‌کنه. روش کارش به این صورته که شما در ورودی وضعیت بدنی (human pose) رو به صورت تصویر می‌دید (که هر تصویری می‌تونه باشه و خود دمو هم چندین مثال داره) و فرم لباس و بافت لباس مورد نظرتون رو به صورت جملات متنی می‌دید و مدل براتون تصاویر آدم‌هایی با همان ویژگی توصیف‌شده توسط شما رو تولید می‌کنه. شیوه کار کلی این مدل در دو گام اصلی خلاصه میشه. در گام اول یک تصویرخام از فرم بدن انسان (human pose)، تبدیل به یک قالب کلی انسان با یک لباس بدون بافت و شکل مشخص میشه (human parsing). سپس در گام دوم خروجی گام اول گرفته می‌شه و بافت و فرم لباس رو به تصویر گام قبل اضافه می‌کنه. نمای کلی مدل در تصویر زیر اومده. برای گام اول و تولید بردار بازنمایی قالب بدن انسان از جملات ورودی، از یک شبکه با چندین لایه fully connected استفاده می‌شه و این بردار بازنمایی به همراه تصویر خام به یک شبکه Auto Encoder داده میشه تا در خروجی یک قالب کلی از بدن انسان که فرم لباس در اون مشخصه ولی رنگ و بافت خاصی نداره رو خروجی بده. سپس برای گام دوم، خروجی تصویر گام اول به دو شبکه Auto Encoder همکار داده میشه که یکی مسوول بررسی ویژگی‌های سطح بالای تصویر استایل انسان هست و دیگری به صورت ریزدانه‌تری فیچر‌ها رو در نظر می‌گیره (فرض کنید در شبکه اول هر چند ده پیکسل مجاور هم تجمیع می‌شوند و به شبکه داده می‌شوند در حالیکه در شبکه دوم هر پیکسل یک درایه از بردار ورودی را تشکیل می‌دهد). از طرفی بازنمایی جملات نیز به این شبکه‌ها داده می‌شود. سپس برای اینکه این دو شبکه همکاری داشته باشند خروجی دیکودر شبکه اول به ورودی دیکودر شبکه دوم داده میشه. یعنی شبکه دوم علاوه بر دریافت خروجی encoder خودش، خروجی دیکودر شبکه اول رو هم دریافت می‌کنه و بعد اقدام به بازسازی تصویر نهایی می‌کنه. معماری این قسمت رو هم در تصاویر می‌تونید ببینید. این مدل بر روی هاگینگ‌فیس هم serve شده و می‌تونید دموش رو به صورت رایگان مشاهده کنید. لینک مقاله: https://arxiv.org/abs/2205.15996 لینک دمو: https://huggingface.co/spaces/CVPR/Text2Human لینک گیت‌هاب: https://github.com/yumingj/Text2Human #read #paper @nlp_stuff
مهمترین مطالبی که پژوهشگران، دانشجویان و دانش آموزان برای آشنایی و شروع فعالیت در زمینه الگوریتمهای هوش مصنوعی بایستی فرابگیرند. با عضویت در کانال @ai_python جدیدترین و موضوعات روز را پیگیری کنید. با تشکر از همراهی سبزتان. 🔰 آموزش الگوریتمهای یادگیری ماشین 🔰 کورس رایگان در حوزه دیتاساینس و یادگیری ماشین و پردازش زبان طبیعی و یادگیر عمیق 🔰 یادگیری ماشین و NLP و پایتون 🔰 اسلاید سخنرانی ها در مورد یادگیری عمیق 🔰 شبکه های عصبی جفری هیتون ❎ کلاس یادگیری ماشین دانشگاه کلمبیا ❎ آموزش الگوریتمها NLP ❎ آموزش پایتون دکتر Chuck ❎ طریقه استفاده از الگوریتمهای ML ♻️ کلاس آموزشی RL ♻️ فیلم ML شرکت فیسبوک ♻️ فیلم های دکتر رضوی ♻️ آموزش عملی ANN در پایتون ♻️ چگونگی ساخت RNN در پایتون 🏧 نقشه راه ML 🏧 منابعی جامع از ML 🏧 16 منبع آموزشی الگوریتمهای AI 🏧 یادگیری تقویتی عمیق :تعاریف و تاریخچه ♨️ یادگیری ماشین برای مبتدیان ♨️ پاکسازی دیتاها در ML ♨️ ملزومات فراگیری برای الگوریتمهای یادگیری ماشین مزایا و کاراییها ♨️ فیلم کنفرانسهای مطرح هشتگ کنفرانس و مقاله سرچ کنید ♨️ آموزشی پیشرفته ای NLP در ژوپیتر 📣 یادگیری غیرنظارتی برای همه 📣 الگوریتمهای یادگیری ماشین :برآوردگرها ,تابع زیان 📣 یادگیری کورسهای fastai 📣 ریاضیات یادگیری عمیق شبکه های عصبی به زبان ساده 📣 آموزش CNN به زبان ساده 🔸 آموزش مقدماتی یادگیری ماشین برای همه سنین 🔸 آموزش ML بدون پیش زمینه ریاضیاتی 🔸 10 کتاب برای یادگیری ML هشتگ کتاب سرچ کنید 🔸 چگونه به وسیله الگوریتمهای یادگیری عمیق مسایل را حل کنیم ؟ 🔸 خلاصه الگوریتمهای ML 🔸آموزشهای جامع از AI ✔️ آموزش درک زبان طبیعی دانشگاه استنفورد ۲۰۱۹ ✔️ آموزش DataScience و آموزش ✔️ آموزش مقدماتی مدلهای GAN در پایتون
In conventional neural networks, the amount of computation used is proportional to the size of the inputs, instead of the complexity of the content of the data being processed. However, the time needed to process input data is a function of more than just the size of the inputs. Common input data for neural architectures also have an inherent complexity that is independent of the input size. Conventional neural architectures do not adjust their computational budget based on the complexity of the data they are processing, or arguably, such adaptation is done manually by the machine learning practitioner. In this work, we, therefore, introduce a differentiable parameter-free Adaptive Token Sampler (ATS) module, which can be plugged into any existing vision transformer architecture. ATS empowers vision transformers by scoring and adaptively sampling significant tokens. As a result, the number of tokens is not constant anymore and varies for each input image. By integrating ATS as an additional layer within the current transformer blocks, we can convert them into much more efficient vision transformers with an adaptive number of tokens. Since ATS is a parameter-free module, it can be added to the off the-shelf pre-trained vision transformers as a plug-and-play module, thus reducing their GFLOPs without any additional training. Moreover, due to its differentiable design, one can also train a vision transformer equipped with ATS. We evaluate the efficiency of our module in both image and video classification tasks by adding it to multiple SOTA vision transformers. Our proposed module improves the SOTA by reducing their computational costs (GFLOPs) by 2X.
10 سایت برتر برای یافتن شغل در سال 2022: (Top 10 sites for your career in 2022) 1) Linkedin 2) Indeed 3) Naukri 4) Monster 5) JobBait 6) Careercloud 7) Dice 8) CareerBuilder 9) Jibberjobber 10) Glassdoor 10 مهارت فنی مورد تقاضا در سال 2022: (Top 10 Teach skills in demand in 2022) 1) Machine Learning 2) Mobile Development 3) SEO/SEM Marketing 4) Data Visualization 5) Data Engineering 6) UI/UX Design 7) Cyber Security 8) Cloud Computing/AWS 9) Blockchain 10) IOT 10 سایت برای آموزش آنلاین رایگان در سال 2022: (Top 10 sites for free online education in 2022) 1) Coursera 2) edX 3) Khan Academy 4) Udemy 5) iTunesU Free Courses 6) MIT OpenCourseWare 7) Stanford Online 8) Codecademy 9) ict iitr 10) ict iitk 10 سایت برای بررسی رایگان رزومه در سال 2022: (Top 10 sites to review your resume for free in 2022) 1) Zety Resume Builder 2) Resumonk 3) Resume dot com 4) VisualCV 5) Cvmaker 6) ResumUP 7) Resume Genius 8) Resume builder 9) Resume Baking 10) Enhance 10 سایت برای آماده سازی مصاحبه در سال 2022: (Top 10 sites for interview Preparation in 2022) 1) Ambitionbox 2) AceThelnterview 3) Geeksforgeeks 4) Leetcode 5) Gainlo 6) Careercup 7) Codercareer 8) InterviewUp 9) InterviewBest 10) Indiabix @BIMining
Google engineers offered 28 actionable tests for #machinelearning systems. 👇 Introducing 👉 The ML Test Score: A Rubric for ML Production Readiness and Technical Debt Reduction (2017). 👈 If #ml #training is like compilation, then ML testing shall be applied to both #data and code. 7 model tests 1⃣ 👉 Review model specs and version-control it. It makes training auditable and improve reproducibility. 2⃣ 👉 Ensure model loss is correlated with user engagement. 3⃣ 👉 Tune all hyperparameters. Grid search, Bayesian method whatever you use, tune all of them. 4⃣ 👉 Measure the impact of model staleness. The age-versus-quality curve shows what amount of staleness is tolerable. 5⃣ 👉 Test against a simpler model regularly to confirm the benefit more sophisticated techniques. 6⃣ 👉 Check the model quality is good across different data segment, e.g. user countries, movie genre etc. 7⃣ 👉 Test model inclusion by checking against the protected dimensions or enrich under-represented categories. 7 data tests 1⃣ 👉 Capture feature expectations in schema using statistics from data + domain knowledge + expectations. 2⃣ 👉 Use beneficial features only, e.g. training a set of models each with one feature removed. 3⃣ 👉 Avoid costly features. Cost includes running time, RAM as well as upstream work and instability.  4⃣ 👉 Adhere to feature requirements. If certain features can’t be used, enforce it programmatically. 5⃣ 👉 Set privacy controls. Budget enough time for new feature that depends on sensitive data. 6⃣ 👉 Add new features quickly. If conflicting with 5⃣ , privacy goes first. 7⃣ 👉 Test code for all input features. Bugs do exist in feature creation code. See 7 Infrastructure & 7 monitoring tests in paper. 👇 They interviewed 36 teams across Google and found 👉 Using a checklist helps avoid mistakes (like a surgeon would do). 👉 Data dependencies leads to outsourcing responsibility. Other teams’ validation may not validate your use case. 👉 A good framework promotes integration test which is not well adopted. 👉 Assess the assessment to better assess your system. https://research.google.com/pubs/archive/aad9f93b86b7addfea4c419b9100c6cdd26cacea.pdf
GNNs Learn To Smell & Awesome NeurReps 1) Back in 2019, Google AI started a project on learning representations of smells. From basic chemistry we know that aromaticity depends on the molecular structure, e.g., cyclic compounds. In fact, the whole group of ”aromatic hydrocarbons” was named aromatic because they actually has some smell (compared to many non-organic molecules). If we have a molecular structure, we can employ a GNN on top of it and learn some representations - that is a tl;dr of smell representation learning with GNNs. Recently, Google AI released a new blogpost describing the next phase of the project - the Principal Odor Map that is able to group molecules in “odor clusters”. The authors conducted 3 cool experiments: classifying 400 new molecules never smelled before and comparison to the averaged rating of a group of human panelists; linking odor quality to fundamental biology; and probing aromatic molecules on their mosquito repelling qualities. The GNN-based model shows very good results - now we can finally claim that GNNs can smell! Looking forward for GNNs transforming the perfume industry 📈 2) The NeurReps commnuity (Symmetry and Geometry in Neural Representations) is curating the Awesome List of resources and research related to the geometry of representations in the brain, deep networks, and beyond. A great resource for Neuroscience and Geometric DL folks to learn about the adjacent field!
📚 Weekend Reading This week brought quite a few interesting papers and resources - we encourage you to invest there some time: Geometric multimodal representation learning by Yasha Ektefaie, George Dasoulas, Ayush Noori, Maha Farhat, and Marinka Zitnik. A survey of 100+ papers on graphs combined with other modalities and a framework of multi-modal approaches for natural sciences like physical interaction, molecular reasoning, and protein modeling. Clifford Neural Layers for PDE Modeling by Johannes Brandstetter, Rianne van den Berg, Max Welling, Jayesh K. Gupta. If you thought you know all the basics from the Geometric Deep Learning Course - here is something more challenging. The authors introduce the ideas from Geometric Algebra into ML tasks, namely, Clifford Algebras that unify numbers, vectors, complex numbers, quaternions, and have additional primitives to incorporate plane and volume segments. The paper gives a great primer on the math and applications. You can also watch a very visual YouTube lecture on Geometric Algebras. Categories for AI (Cats4AI) - an upcoming open course on Category Theory created by Andrew Dudzik, Bruno Gavranović, João Guilherme Araújo, Petar Veličković, and Pim de Haan. “This course is aimed towards machine learning researchers, but approachable to anyone with a basic understanding of linear algebra and differential calculus. The material is self-contained and all the necessary background will be introduced along the way.” Don’t forget your veggies #منابع ❇️ @AI_Python
#فاندیاب – www.jobbdirekte.no – www.phdproject.org – www.jobs.tue.nl – www.academicpositions.eu – www.phds.org – www.universitypositions.eu – www.phdposition.com – www.academiccareers.com – www.indeed.com – www.infoscholarship.net – www.euraxess.ec.europa.eu – mastersportal.eu – european-funding-guide.eu – findamasters.com #پوزیشن یاب https://scholarshipdb.net/scholarships?q=Geography&l= https://www.phdportal.com/studies/62951/climate-variability-and-impacts.html https://www.scholarshipsads.com/category/country/usa-scholarships/ https://www.universitypositions.eu/ https://scholarship-positions.com/ https://euraxess.ec.europa.eu/ https://www.findaphd.com/ https://www.findaprofessionaldoctorate.com/ https://www.university-directory.eu/ https://www.scholars4dev.com/ https://www.phdportal.com/search/#q=ci-82|di-75|lv-phd|tc-EUR&start=10 https://www.fastweb.com/ https://www.scholarships.com/financial-aid/college-scholarships/scholarship-directory/age/age-greater-than-30 https://escholarship.org/search?q=Geography https://www.intechopen.com/search?term=Geography https://www.wgu.edu/lp/business/business-scholarships.html?refer_id=129677&ch=DSPLY&s_placement=mail.google.com&s_loc_physical_ms=9003475&s_keyword=&gclid=Cj0KCQjwgJv4BRCrARIsAB17JI53I4lQR5Q5c4w8FijcWfM_wMNG5BjfbcnKr5Zo2YKP051r6bdO5aMaAlpuEALw_wcB https://www.scholars4dev.com/6499/scholarships-in-usa-for-international-students/ http://novinscholarships.com/page/5/?s&u_course_cat=%25d8%25ac%25d8%25ba%25d8%25b1%25d8%25a7%25d9%2581%25db%258c%25d8%25a7 http://www.universitypositions.eu https://phdposition.com/ https://wikigeram.com/scholarships https://www.shortcoursesportal.com/ https://www.educations.com/ https://www.wemakescholars.com/ https://scholarshipdb.net/ https://academicpositions.co.uk/find-jobs/all-in-all-by-all-in-all/ge/1 https://yocket.in/applications-admits-rejects/california-institute-of-technology/2 https://scholars.wlu.ca/geog_etd/ #کاری #دکترا https://www.academictransfer.com/en/ https://in.indeed.com/m/ https://www-m.academickeys.com/ https://academicpositions.com/ https://www.phdproject.org/ سایت #پست داک https://postdocjobs.com/ #کانادا https://www.universitystudy.ca/ https://cfm.ehu.es/about-cfm/job-offers/ https://www.educanada.ca/ جهت اپلای کردن
لیست #سایتهای ارائه دهنده #پوزیشن و موقعیت اکثرا #اروپا http://ec.europa.eu/research/index.cfm?pg=notfound&pagesought=mariecuriefp6    http://phdposition.com/    http://scholarship-positions.com/    http://scholarshipdb.net/    http://www.academickeys.com/    http://www.academicpositions.eu/    http://www.dfg.de/en/research_funding/programmes/index.jsp    سوئیس👇 http://www.eth-gethired.ch/    http://www.findaphd.com/    آلمان http://www.fraunhofer.de/en.html    http://www.gooduniversitiesguide.com.au/    https://www.niche.com/colleges/search/best-student-life/ https://www.uni-assist.de/ https://www.daad.de/de/ http://www.graduate-school-ce.de/index.php?id=583    #کلیه کشورها http://www.indeed.com/    http://www.jobbnorge.no/    http://www.mastersportal.eu/    http://www.nature.com/naturejobs/science/    http://www.phdportal.eu/    http://www.phds.org/    http://www.phdstudies.com/    http://www.scholarships-links.com/    http://www.studyinnorway.no/    http://www.universitypositions.eu/    https://www.academictransfer.com/    https://www.nuffic.nl/en    https://www.iit.it/careers/openings   
Two fully-funded positions, one PhD and one MSc, are available in the University of Victoria’s Department of Computer Science, for September 2023. Some core focus areas include: (a) online learning/sequential prediction, including (but not limited to) theoretically principled methods for representation learning and lifelong learning. (b) the intersection of mechanism design and machine learning; (c) the intersection of machine learning with fairness, privacy, and other societally important considerations. Successful candidates will have freedom to explore other theoretically-motivated research topics within machine learning. An ideal candidate at the PhD level has a Master’s degree specializing in Machine Learning, Computer Science, or Statistics. Related, mathematically-oriented degrees such as e.g. Electrical Engineering, Mathematics, Physics also will be viewed favorably. Some previous exposure to machine learning is essential. Interested Applicants If you are interested in doing a PhD or MSc with me in machine learning theory, please email me with a brief introduction, including your research interests and academic background. In addition, the application form can be found here: https://www.uvic.ca/engineering/computerscience/graduate/applying/index.php The deadline to apply is December 15th. Please indicate in your application that you would like to work with me, and describe in your application your research interests within machine learning theory. Women and individuals from underrepresented minority groups are especially encouraged to apply. Contact Information Nishant Mehta [email protected] http://web.uvic.ca/~nmehta
اصطلاح «یک تصویر ارزش هزار کلمه را دارد» قرار بود درباره داستانی باشد که عکس آن را توصیف می‌کند، برای مثال با یک نگاه به عکس خاطره‌های زیادی یادآوری می‌شوند یا یادگیری آسانتر می‌گردد. اما این اصطلاح با وجود عکس‌ها دیجیتالی معنای دیگری هم می‌دهد. عکس‌های دیجیتالی شامل اطلاعات بیشتری، غیر از آنچه خود تصویر نشان می‌دهد، هستند. به این اطلاعات متادیتا یا فراداده می‌گوییم مجموعه ای از ابزارها برای ویرایش و حذف ابرداده ها هر عکس ، فایلی ، سندی رو که در فضای اجتماعی منتشر میکنید شامل یه سری اطلاعات پنهانی هست که میتونه ناشناس بودن شما و حریم خصوصی شما رو به خطر بندازه 1. Scrambled Exif اپلیکیشنی برای حذف ابرداده ها از عکس ها قبل از ارسال است. برای کاربران اندروید. 2. Imgonline سرویسی است که به شما امکان می دهد متادیتاهای EXIF، IPTC، XMP و سایر اطلاعات اضافی را به جز خود تصویر حذف کنید. 3. MAT2 یک نرم افزار رایگان و متن باز برای حذف تمام ابرداده ها از عکس ها، صداها، اسناد و فایل های تورنت است. 4. Imagepipe - همچنین داده های EXIF ​​را قبل از ارسال تصویر حذف می کند. برای کاربران اندروید. 5. Exif Viewer - متادیتا را از فایل های مختلف استخراج می کند. 6. Jeffrey's Image Metadata Viewer - فراداده را از تصاویر استخراج می کند. 7. Get metadata - فراداده را از انواع فایل های مختلف بازیابی می کند. 8. MetaClean یک ابزار آنلاین برای کار با PDF، JPEG، MP3، Docx و فرمت های دیگر است. 9. ExifCleaner یک نرم افزار رایگان و متن باز است که به شما امکان می دهد متادیتا را از عکس ها، GIF ها، فیلم ها و فایل های PDF حذف کنید. 10. MetaCleaner یک ابزار جامع و حرفه ای حذف ابرداده آنلاین است. اگر نمی‌خواهید از اپلیکیشن‌ها یا سرویس‌های وب استفاده کنید، می‌تونید به سادگی عکس‌های خود تونو به علاقه‌مندی‌های تلگرام خود بفرستید و متادیتا پس از آپلود پاک می‌شه. #حریم_خصوصی ✳️ @AI_Python
Here are 10 common AI terms explained in an easily understandable way. 1. Classification A Machine Learning task which seeks to classify data points into different groups (called targets or class labels) that are pre-determined by the training data. For example, if we have a medical dataset consisting of biological measurements...... (heart rate, body temperature, age, height, weight, etc.) and whether or not a person has a specific disease, we could train a classification model to predict whether or not a person has the disease given just the biological measurements. 2. Regression A supervised learning task that tries to predict a numerical result given a data point. For example, giving the description of a house (location, number of rooms, energy label) and predicting the market price of the house. 3. Underfitting A phenomenon in which a Machine Learning algorithm is not fitted well enough to the training data, resulting in low performance on both the training data and similar but distinct data.3. Underfitting cont. A common example of underfitting occurs when a neural network is not trained long enough or when there is not enough training data. The converse phenomenon is overfitting. 4. Overfitting A phenomenon in which a Machine Learning algorithm is too fitted to the training data, making performance on the training data very high, but performance on similar but distinct data low due to poor generalizability.A common example of overfitting occurs when a neural network is trained for too long. The converse phenomenon is underfitting. 5. Cost function This is what Machine Learning algorithms are trying to minimize to achieve the best performance. It is simply the error the algorithm makes over a given dataset. It is also sometimes referred to as “loss function.” 6. Loss function A (generally continuous) value that is a computation-friendly proxy for the performance metric. It measures the error between values predicted by the model and the true values we want the model to predict.During training, this value is minimized. “Loss function” is sometimes used interchangeably with “cost function,” although the two are differentiated in some contexts. 7. Validation data A subset of data that a model is not trained on but is used during training to verify that the model performs well on distinct data. Validation data is used for hyper parameter tuning in order to avoid over fitting. 8. Neural Network A specific type of Machine Learning algorithm which can be represented graphically as a network, inspired by the way that biological brains work.The network represents many simple mathematical operations (addition, multiplication, etc.) that are combined to produce a complex operation that may perform a complicated task (e.g. identifying cars in an image). 9. Parameter Generally refers to the numbers in a neural network or Machine Learning algorithm that are changed to alter how the model behaves (sometimes also called weights). If a neural network is analogous to a radio, providing the base structure of a system, then parameters are analogous to the knobs on the radio, which are tuned to achieve a specific behavior (like tuning in to a specific frequency). Parameters are not set by the creator of the model, rather, the values are determined by the training process automatically. 10. Hyperparameter A value that takes part in defining the overall structure of a model or behavior of an algorithm. Hyperparameters are not altered by the model training process and are set ahead of time before training. Many potential values for hyperparameters are generally tested to find those that optimize the training process. E.g, in a neural network, the number of layers is a hyperparameter (not altered by training), whereas the values within the layers (“weights”) themselves are parameters (altered by training).If the model is a radio, then a hyperparameter would be the number of knobs on the radio, while the values of these knobs would be parameters. #آموزش ✳️ @AI_Python
Molecular dynamics is one of the booming Geometric DL areas where equivariant models show the best qualities. The two cool recent papers on that topic: ⚛️ Forces are not Enough: Benchmark and Critical Evaluation for Machine Learning Force Fields with Molecular Simulations by Fu et al. introduces a new benchmark for molecular dynamics - in addition to MD17, the authors add datasets on modeling liquids (Water), peptides (Alanine dipeptide), and solid-state materials (LiPS). More importantly, apart from Energy as the main metric, the authors consider a wide range of physical properties like Stability, Diffusivity, and Radial Distribution Functions. Most SOTA molecular dynamics models were probed including SchNet, ForceNet, DimeNet, GemNet (-T and -dT), NequIP. Density Functional Theory (DFT) calculations are one of the main workhorses of molecular dynamics (and account for a great deal of computing time in big clusters). DFT is O(n^3) to the input size though, so can ML help here? Learned Force Fields Are Ready For Ground State Catalyst Discovery by Schaarschmidt et al. present the experimental study of models of learned potentials - turns out GNNs can do a very good job in O(n) time! 🪐 For astrophysics aficionados: Mangrove: Learning Galaxy Properties from Merger Trees by Jespersen et al. apply GraphSAGE to merger trees of dark matter to predict a variety of galactic properties like stellar mass, cold gas mass, star formation rate, and even black hole mass. The paper is heavy on the terminology of astrophysics but pretty easy in terms of GNN parameterization and training. Mangrove works 4-9 orders of magnitude faster than standard models (that is, 10 000 - 1 000 000 000 times faster). Experimental charts are pieces of art that you can hang on a wall. 🤖 Compositional Semantic Parsing with Large Language Models by Drozdov, Schärli et al. pretty much solve the compositional semantic parsing task (natural language query - structured query like SPARQL) using only code-davinci-002 language model from OpenAI (which is InstructGPT fine-tuned on code). No need for hefty tailored semantic parsing models - turns out a smart extension of the Chain-of-thought prompting (aka "let's think step by step") devised as Least-to-Most prompting (where we first answer easy subproblems before generating a full query) yields whopping 95% accuracy even on hardest Compositional Freebase Questions (CFQ) dataset. CFQ was introduced at ICLR 2020, and just after two years LMs cracked this task - looks like it's time for the new, even more complex dataset. #مقاله
Apply for Ph.D. positions starting this year! We have room for several outstanding machine learning Ph.D. students to join our elite group at the University of Cambridge. We are looking for: leaders who want to realise their full potential and shape the future of machine learning explorers who think boldly and prefer pushing boundaries to sitting still builders who see projects through to completion and want to make a real-world impact If you’re interested, please click the URL below. Note that we have already received a lot of applications. If you’re considering applying, earlier is definitely better! Join the van der Schaar Lab: https://eur03.safelinks.protection.outlook.com/?url=https%3A%2F%2Fwww.vanderschaar-lab.com%2Fjoin&data=05%7C01%7Ctl522%40universityofcambridgecloud.onmicrosoft.com%7C25eb48cdd35849dde6d208dac1c40d86%7C49a50445bdfa4b79ade3547b4f3986e9%7C1%7C0%7C638035345048429672%7CUnknown%7CTWFpbGZsb3d8eyJWIjoiMC4wLjAwMDAiLCJQIjoiV2luMzIiLCJBTiI6Ik1haWwiLCJXVCI6Mn0%3D%7C3000%7C%7C%7C&sdata=koklpmvj4TDjLmx8OXWKFUyWVlKRA%2B%2FzuRstdljgIbI%3D&reserved=0 #اپلای
Prompt engineering چیه؟ جدیدا یه سری مدلهای زیروشات معرفی شدن برای تسکهای مختلف. از پردازش زبان بگیرید تا خلق تصاویر. این نوع مدلها شدیداً نیازمند توصیفی از اون کاری که ازشون میخواهید بکنند دارند. به عنوان مثال T5 که یکی از پیشگامان بود تسکهای مختلفی ساپورت میکرد. مثلا بهش این ورودی رو می‌دادید: Translate from en to de: this is it. و خروجی Das ist das. رو بهتون میداد. دقت کنید قبل از اینکه ورودی رو بهش بدید بهش میگید چیکار باید بکنه. رویکردهای جدیدی هم مثل stable diffusion و dale هم معرفی شدند که کارشون خلق تصاویر هستش. ولی خب این رویکردها رو دیتاستهای مشخصی آموزش دیدند و ورودی متنی که بهش میدید خیلی تاثیر داره رو خروجی. یک سری از محققان و علاقه مندا رفتن یه سایتی زدن: prompthero.com که میتونید توش ورودی هایی که جواب مشخصی گرفتن رو ببینین و بر اساس ورودی خودتون رو خلق کنید. یک ایده خیلی خیلی خوب هم clip interrogator هست که عکس رو بهش میدید و روی ترین ست سرچ میزنه (با یه سری برچسب های خاص که رو اونها هم تیون شده) و بهتون میگه بیشتر شبیه کدوم پرامپت هستش. یه مجموعه ای از اسم هنرمندان و سبک و ... هم داره. اینطوری میتونید بر اساس اون تغییر بدید و تشخیص بدید کدوم ورودی بهتر هست و بر اساس اون کنترل بیشتری روی ایجاد خروجی داشته باشید. اینجا توضیح میده چطوری ازش استفاده کرده: https://youtu.be/2EV5SZ1Klro حالا پرامپت انجینر چیه؟ به کسایی که گفته میشه که خیلی با این مدلها سر و کله زدن و یجورایی فهمیدن چی بهش بدن چی خروجی میگیرن. به عبارتی بلدن از مدل خروجی دلخواه رو بکشن بیرون. حالا شما این رو با یه ذره برنامه نویسی و ... هم ترکیب کنید، میشن یه سری استارتاپ نوظهور که میتونن خروجی های خیلی خاصی برای زمینه های خاص رو ایجاد کنند. @ai_person
♨️ Free Self-Study Books on Mathematics, Machine Learning & Deep Learning 🔶1. Matrix Computations ✅ Free Book: Download here 🔶 2. A Probabilistic Theory of Pattern Recognition 💠 Free Book: Download here ✅3. Advanced Engineering Mathematics 💠 Free Book: Download here ✅ 4. Probability and Statistics Cookbook Free Book: Download here Machine Learning & Deep Learning Books ➡️ 1. An Introduction to Statistical Learning (with applications in R) 🖇 Free Book: Download here ➡️ 2. Probabilistic Programming and Bayesian Methods for Hackers 👉 Free Book: Download here ➡️3. The Elements of Statistical Learning 👉 Free Book: Download here ➡️4. Bayesian Reasoning and Machine Learning 👉 Free Book: Download here ❇️@AI_Python ❇️@Data_Experts ✔️ 5. Information Theory, Inference, and Learning Algorithms 👉 Free Book: Download here ✔️ 6. Deep Learning 🔗Free Book: Download here 📚 7. Neural Networks and Deep Learning 🔗 Free Book: Download here 📚 8. Supervised Sequence Labelling with Recurrent Neural Networks 🔗Free Book: Download here 📚 9. Reinforcement Learning: An Introduction 🔗 Free Book: Download here #کتاب #هوش_مصنوعی #یادگیری_عمیق #یادگیری_تقویتی #آموزش #آمار #احتمال #منابع ❇️@AI_Python ❇️@Data_Experts
عمرتان زیادی کرده که دکترا بخوانید؟ این هفته آقای لکان (یکی از سه‌ خدای دیپ‌لرنینگ) توییتی زده و به مورد Aditya Ramesh اشاره کرد. فردی که لیسانسش رو از دانشگاه NYU گرفته و قصد داشت تا وارد دوره دکتری شود اما با یک کارآموزی در OpenAI مسیرش تغییر کرده و در آن جا مانده و در نهایت با مدرک لیسانس تبدیل به نویسنده اصلی مقاله مدل معروف Dall-E می‌شود. آقای بهنام نیشابور محقق گوگل هم توییت لکان را کوت کرده و نکات ریزتری برای تایید "نباید برای یادگیری ماشین دکترا خواند" به آن اضافه کرده است. نکته اصلی که تحصیلات تکمیلی برای زمینه‌ای مثل ML آورریتد است. چرا؟ چون که یک نفر بدون هیچ گونه پیش زمینه خاصی می‌تواند به این فیلد وارد شده و با اندکی وقت گذاشتن، حتی می‌تواند به راحتی در کنفرانس‌های مطرح دنیا مقاله‌ای چاپ کند. منابع آموزشی ML روز به روز گسترده‌تر و در دسترس‌تر می‌شوند و واقعا لازم نیست کسی برای وارد شدن به وادی پژوهشگری یادگیری ماشین بیاید و ۵ الی ۶ سال از عمرش را در ارشد یا دکتری هدر دهد. (و خودمانیم، رشته‌‌هایی مثل فیزیک را با ML مقایسه کنید. طرف در فیزیک تا بخواهد به جایی برسید باید مو سفید کند اما امروزه از صفر تا صد ماشین لرنینگ را با این تئوری‌های آبکی که دارد می‌توان در کمتر از دو سال طی نمود) نکته‌ دیگری که آقای نیشابور اشاره کرده است این است که تعداد موقعیت‌های دکترای یادگیری ماشین روز به روز بیشتر می‌‌شود اما از آن طرف تعداد شغل‌هایی که به مدرک دکتری یادگیری ماشین نیاز دارد در آینده روز به روز کمتر می‌شود. در واقع با داشتن دکتری شما over-qualified می‌شوید و از طرف دیگر هم مگر آکادمی چه قدر موقعیت شغلی می‌تواند داشته باشد؟ در مقابل، صنعت اما بیش از ML Researcher به ML Engineer‌ها نیازمند است. کسی که بتواند چیزی را واقعا بسازد. دوره دکتری باعث دوری نسبی از شما صنعت و مهارت‌های آن خواهد شد. آقای نیشابور در انتها به نتایج تحقیقی اشاره کرده که در آن گفته شده درصد زیادی از دانشجویان تحصیلات تکمیلی دچار افسردگی و اضطراب شدید هستند. نکته دیگری که ما به صحبت‌های بالا اضافه می‌توانیم بکنیم این است که جایگاه متفاوت یادگیری ماشین و به طور عام هوش مصنوعی نسبت به سایر علوم را باید در نظر گرفت. هوش مصنوعی در مدت ۷۰ سال اخیری که از خدا عمر گرفته است، همچنان حوزه یکپارچه‌ای نبوده است. هر از چند گاهی ایده‌ای آمده است و با هوش مصنوعی وارد بهاری شده و در نهایت در زمستانی دفن شده است. گاهی منطق‌دان‌ها به آن وارد شده‌اند و با دیدشان روش‌های سیستم‌های خبره و منطق را برای هوش مصنوعی توسعه داده‌اند. گاهی برقی‌ها وارد شده‌اند و مفاهیم سیگنالی را در حوزه هوش مصنوعی غالب کرده‌اند و این اواخر هم ریاضی‌دان‌ها و آماردان‌ها وارد شده و پارادایم یادگیری ماشین را پادشاه هوش مصنوعی کرده‌اند. از حدود ۲۰۱۲ به این ور هم شبکه‌های دیپ (شاید مدیون پیشرفت‌‌های سخت‌افزاری) فرمان بازی را به دست گرفته و بهاری‌ترین دوران هوش مصنوعی را رقم زده‌اند. اما واقعیت این است که یادگیری عمیق نیز اکنون احتمالا وارد پاییز خود شده است (در این مورد در آینده احتمالا صحبت می‌کنیم). مسیر تحقیقاتی هوش مصنوعی و یادگیری ماشین احتمال دارد به زودی دوباره وارد زمستان سخت شده و تمامی سرمایه‌گذاری‌های تحقیقاتی بسوزند. البته که بحث دنیای صنعت فرق می‌کند و همین الان بسیاری راه‌حل‌های یافت شده در دنیای آکادمی آماده هستند تا به دنیای صنعت و کاربرد اعمال شوند. در همین راستا شاید پیشنهاد ML Engineer شدن به جای ML Researcher شدن پیشنهاد عافیت داری برای دین و دنیا باشد. برای حسن ختام به قول سعدی: کرامت جوانمردی و نان‌دهی است مقالات بیهوده طبل تهی است پی‌نوشت-۲: البته اگر در بلاد کفر نیستید قاعدتا برای رسیدن به جایی مانند گوگل یا کوچکتر از آن مسیری جز اپلای تحصیلی برای ساختن رزومه و تقویت حلقه تاثیر شاید نیست. بحث کلی این است که در شرایط عادی، دکترای یادگیری ماشین معنی چندانی در دنیای امروز ندارد. لینک توییت لکان: https://twitter.com/ylecun/status/1605450677806895104 لینک توییت نیشابور: https://twitter.com/bneyshabur/status/1605677285255675904 #tweet #read @nlp_stuff
You want to get into AI and computer vision but don’t know where to begin? Here are some of the lessons I learned that will help you get started. Unless you’re looking to become the next Geoffrey Hinton or develop new algorithms, understanding the math behind AI is not all that important! Instead focus on developing an intuitive understanding of neural networks. I hear you thinking, but how? Well, start by spending a lot of time training networks! Which means you should stay away from ‘Easy Button’ platforms that do all the training for you (like Google AutoML), at least until you know what you are doing.  Try out different public datasets and perform your own experiments by changing learning rates, removing samples or try alternative optimizers.. Sit there watching epoch by epoch, seeing how networks converge. Over time you will develop a feel for the training process and most likely a profound love for ‘early stoppage’. Learn Python (NumPy!) and OpenCV. If ever there were two technologies critical to daily life as a data scientist, it’s them. Now I don’t mean you have to learn their manuals front to back. Instead focus on the basics, enough so that you can understand open source projects and example code. The rest will come with time.  There are a lot of different AI training frameworks, but in reality you only need one: PyTorch. It’s the most amazing machine learning framework out there and most papers are implemented in it. Stay away from TensorFlow, it’s a hot mess and will do nothing but upset you. Don’t bother chasing the latest and greatest algorithms. Yes, it’s important to stay up to date and read. But not everything under the sun is worth implementing. Develop a list of your favorite architectures and just stick with them. Want to know the secret to what makes a good architecture? A network that is not fancy! The best networks stick with very basic operations that have been around for years. Deploying models on your favorite device can be a real nightmare otherwise. Finally I highly recommend that you participate in online competitions, such as Kaggle, where you can work on real-world data science and machine learning challenges. This will not only help you develop your skills, but also give you the opportunity to showcase your work and connect with others. Are you still at the absolute beginning of your journey? You can start by following the excellent PyTorch tutorials at:  https://pytorch.org/tutorials/beginner/basics/intro.html #منابع ✳️ @ai_python
مدلها و دیتاستهای ComputerVision بر روی هاگینگ فیس 💨 Topics: Supported vision tasks and Pipelines Training your own vision models Integration with timm Diffusers Support for third-party libraries Datasets ⏩ Code: HugsVision Model documentation Hugging Face notebooks Hugging Face example scripts Task pages Timm ➡️ Computer Vision applications: Generate 3D voxels from a predicted depth map of an input image Open vocabulary semantic segmentation Narrate videos by generating captions Classify videos from YouTube Zero-shot video classification Visual question-answering Use zero-shot image classification to find best captions for an image to generate similar images 🤗 AutoTrain AutoTrain Image classification Automatic model evaluation 🦾 Zero-shot models CLIP OWL-ViT CLIPSeg GroupViT X-CLIP 🚀 Deployment Deploying TensorFlow Vision Models in Hugging Face with TF Serving Deploying ViT on Kubernetes with TF Serving Deploying ViT on Vertex AI Deploying ViT with TFX and Vertex AI ✅ Full list #منابع #بینایی_کامپیوتر 🗨 @AI_Python
✔️ معرفی #منابع_آموزشی پیشنهادی برای یادگیری هوش مصنوعی #Ai #Deep_Learning #Machine_learning #یادگیری_عمیق #هوش_مصنوعی #یادگیری_ماشین #شبکه_عصبی ✅ گام اول برای یادگیری هوش مصنوعی: - فراگیری پایتون - فراگیری یادگیری ماشین 📍یادگیری ماشین بااستفاده از scikit-learn 👈 لینک دوره 📍یادگیری ماشین با استفاده از پایتون 👈 لینک دوره 📍آموزش یادگیری ماشین 👈 لینک دوره 📍یادگیری ماشین با استفاده از scikit-learn-part1 👈 لینک دوره 📍مبانی مقدماتی تا پیشرفته یادگیری ماشین 👈 لینک دوره ✅ استفاده از منبع های مختلف دانشگاه ها و سایت های معتبر 📍 اصول و روش های هوش مصنوعی از دانشگاه استنفورد 👈 لینک دوره 📍 منابع آموزشی دانشگاه MIT 👈 لینک دوره 📍دوره هوش مصنوعی Saylor 👈 لینک دوره 📍منابع آموزشی موجود در سایت Edx 👈 لینک دوره 📍منابع اموزشی مقدمات هوش مصنوعی 👈 لینک دوره 📍 ویدیو های سخنرانی دانشگاه برکلی 👈 لینک دوره 📍 آموزش یادگیری عمیق Google 👈 لینک دوره 📍ویدیو آموزش یادگیری ماشین دانشگاه کارنگی ملون استاد لری وارسرمن 👈 لینک دوره 📍آموزش شبکه های عصبی برای هوش مصنوعی 👈 لینک دوره ✅ یادگیری نظریه های آمار، احتمال و ریاضی 📍آموزش جبر خطی 👈 لینک دوره 📍آموزش آمار و احتمال دانشگاه MIT 👈 لینک دوره 📍معادلات دیفرانسیل و چندگانه 👈لینک دوره ۱ لینک دوره ۲ 📍آموزش نظریه گراف سایت coursera 👈 لینک دوره 📍آموزش روش های بهینه سازی دانشگاه استنفورد👈 لینک دوره ✅ ویدیوهای فارسی 📍آموزش‌های فارسی یادگیری ماشین دکتر رضوی 👈 لینک 📍گروه فارسی پرسش و پاسخ هوش مصنوعی، یادگیری ماشین و یادگیری عمیق: https://t.me/joinchat/ClyM2kZKfp0_jRXWpiQDkw ✅ برترین مقالات هوش مصنوعی و یادگیری ماشین: @ai_python_arxiv ❇️ @AI_Python
✔️ معرفی #منابع پیشنهادی برای #یادگیری_عمیق قدم اول برای یادگیری عمیق #یادگیری_ماشین #پردازش_زبان_طبیعی #هوش_مصنوعی #آموزش #شبکه_عصبی_کانوولوشن #شبکه_عصبی #منابع ✅1 - فراگیری مفاهیم مقدماتی یادگیری ماشین مباحث آموزشی دکتر هینتون و بنجیو و لکون 👈 لینک ✅ فیلم های اموزشی یادگیری ماشین و یادگیری عمیق دکتر رضوی 👈 لینک ✅ تسلط بر مباحث برنامه نویسی پایتون و کار با تنسرفلو وکراس ✅ تسلط بر مباحث ریاضیات و جبر از دانشگاه MIT 👈 لینک ✔️ معادلات ماتریسی یادگیری عمیق دانشگاه کالیفرنیا جنوبی 👈 لینک ✔️ استفاده از سایت بسیار مشهور که به وسیله پژوهشگران برتر هدایت میشود fast.ai 👈 لینک 📚 2 - مطالعه منابع عمیق دانشگاه ها و... یادگیری عمیق دانشگاه آکسفورد 👈 لینک 👈 لینک ۲ 👈 لینک ۳ 🖋فیلمهای این دانشگاه ❌ آموزش های شبکه ای کانولوشن و یادگیری ماشین و... ⁉️ لینک ❌ وبسایتی که آموزشها و مقالات را از سال ۲۰۱۲ تا ۲۰۱۶ قابل دسترس است ⁉️ لینک ❌ شبکه عصبی کانولوشن برای تشخیص بصری ⁉️ لینک ❌ پردازش زبان طبیعی برای یادگیری ماشین ⁉️لینک ❌ مدرسه تابستانی یادگیری عمیق مونترال ⁉️ لینک ۱ ⁉️ لینک ۲ ❌ شبکه کانولوشن عصبی و شبکه عصبی ⁉️ لینک 🔍 یادگیری شبکه های عصبی جفری هینتون کورسرا 📘 کلاس شبکه های عصبی دانشگاه اوشربروک کانادا 👈لینک 📕منابع یادگیری ماشین دانشگاه کالتک برای یادگیری نظری ها 👈 لینک 📘 3- معرفی کتابها Neural Networks and Deep Learning Book by Michael Nielsen Deep Learning Book by Ian Goodfellow, Yoshua Bengio and Aaron Courville 📘 4- سایر منابع CS231n Convolutional Neural Networks for Visual Recognition University of Stanford Getting Started in Computer Vision by Mostafa S. Ibrahim he focus on GPU and ... 🗓 پردازش زبان طبیعی دانشگاه استنفورد 👈 لینک 👈لینک ۲ 🗓 مطالعه مقاله درمورد حافظه شبکه 👈 لینک 📘 مطالعه مقاله پایه ای حافظه شبکه و NLP 👈 لینک ویدیوهای شرکت DeepMind 👈 لینک ❇️ یادگیری عمیق تقویتی 👈 لینک کتابهای ❇️ فهم یادگیری LSTM 👈 لینک ❇️ اثر بخشی ناعادلانه RNN 👈 لینک ✔️ مدل های تولیدی ✅ مقاله جهت یادگیری مدلهای GANs 👈لینک ✅ یادگیری مدل VANs 👈 لینک ✅ مقاله نوشته شده دکتر Ian Goodfellow در مورد GAN 👈 لینک ✅ مقاله نوشته شده LAPGAN 👈 لینک ✅ مقاله نوشته شده در مورد DCGAN 👈لینک مقاله 👈 لینک کدها ✅ استفاده از روش DCGAN برای تصاویر کیفیت بالا 👈 لینک ✅ فیلم های یادگیری عمیق برای پردازش تصویر 👈 لینک 🌐 ساخت پروژه 👈 لینک دیتا 🌐 شناسایی و طبقه بندی تصاویر 👈 لینک ۱ 👈 لینک ۲ 🌐 تحلیل احساسات با استفاده از RNN 👈لینک و با استفاده از CNN 👈 لینک 🌐 کاربرد الگوریتم عصبی سبک هنری 👈لینک 🌐 ساخت موسیقی با استفاده از RNNs 👈 لینک 🌐 ساخت بازی پینگ پونگ با استفاده از یادگیری عمیق تقویتی 👈 لینک ✳️ استفاده از شبکه عصبی Rate a selfie 👈 لینک ✳️ استفاده از رنگ عکسهای سیاه و سفید با استفاده از یادگیری عمیق 👈 لینک ✳️ سایر منابع یادگیری عمیق از پژوهشگران برتر کارپاتی 👈 لینک مقالات ✳️ لینک یادگیری عمیق دانشگاه استنفورد 👈 لینک ۱ 👈 لینک ۲ ✳️ یادگیری عمیق 👈 لینک 🔔@AI_Python
✅ معرفی #منابع پیشنهادی برای #یادگیری_ماشین #آموزش #دکترـرضوی «قدم اول یادگیری زبانهای برنامه نویسی R و Python و Weka که در بیشتر موارد نرم افزار پایتون بهترین گزینه جهت انجام همه این کار ها است» #یادگیری_عمیق #پردازش_زبان_طبیعی ✅ دنبال کردن کلاس آموزشی دکتر رضوی 👈 کلاس آموزشی دکتر رضوی ❇️@AI_Python 🌐 آموزشهای یادگیری علم داده دانشگاه هاروارد 👈 لینک 👈 لینک آموزش فایلهایی ویدیویی 👈 تمرینات 🌐 آموزش های ویدیویی یادگیری ماشین دانشگاه استنفورد 👈 لینک 🌐 کتابهای آموزشی یادگیری آماری جهت فراگیری یادگیری ماشین 👈 فایل pdf 👈 فایل pdf 2 🌐 فراگیری آموزش احتمال که توسط سایت Edx برگزار شده است 👈 لینک ❎یادگیری کلان داده با استفاده آپاچی اسپارک 👈 لینک ❎ یادگیری مباحث ریاضیاتی نظیر جبرخطی و معادلات دیفرانسیل 👈 لینک ❎ یادگیری آموزشهای تقویتی یادگیری ماشین و یادگیری عمیق دانشگاه برکلی 👈 لینک ❎ مطالعه مقالات و یادگیری آموزش الگوریتم های پیشنیاز یادگیری ماشین 👈 لینک ❎ معرفی کتاب ✔️ Bishop's Pattern Recognition and Machine Learning ✔️ Introduction to Probability by John N. Tsitsiklis ✔️ Larry Wasserman's All of Statistics: A Concise Course in Statistical Inference ✔️ Joel Grus' Data Science from Scratch: First Principles with Python ✔️ Brett Lantz's Machine Learning with R ✔️ Willi Richert & Luis Pedro Coelho's Building Machine Learning Systems with Python ✔️ Nick Pentreath's Machine Learning with Spark ✔️ Learning From Data by Yaser S. Abu-Mostafa ❇️@AI_Python 📎 استنتاج بیزی و یادگیری ماشین دانشگاه کمبریج 👈 لینک 📎 یادگیری ماشین و دیدگاه احتمالی دانشگاه بریتیش کلمبیا 👈 لینک 📎 چگونه از دیتا یاد بگیریم دسترسی به کتابها و مطالب دانشگاه Caltech 👈 لینک 🌐 معرفی الگوریتم های خطی و غیر خطی یادگیری ماشین Linear Algorithm Gradient Descent Linear Regression Logistic Regression Linear Discriminant Analysis Nonlinear Algorithms Classification And Regression Trees, Naive Bayes, KNN,Learning Vector Quantization, Support Vector Machines, Bagging and Random Forest,Boosting and AdaBoost ❇️@AI_Python
مهمترین مطالبی که پژوهشگران، دانشجویان و دانش آموزان برای آشنایی و شروع فعالیت در زمینه الگوریتمهای هوش مصنوعی بایستی فرابگیرند. با عضویت در کانال @ai_python جدیدترین و موضوعات روز را پیگیری کنید. با تشکر از همراهی سبزتان. 🔰 آموزش الگوریتمهای یادگیری ماشین 🔰 کورس رایگان در حوزه دیتاساینس و یادگیری ماشین و پردازش زبان طبیعی و یادگیر عمیق 🔰 یادگیری ماشین و NLP و پایتون 🔰 اسلاید سخنرانی ها در مورد یادگیری عمیق 🔰 شبکه های عصبی جفری هیتون ❎ کلاس یادگیری ماشین دانشگاه کلمبیا ❎ آموزش الگوریتمها NLP ❎ آموزش پایتون دکتر Chuck ❎ طریقه استفاده از الگوریتمهای ML ♻️ کلاس آموزشی RL ♻️ فیلم ML شرکت فیسبوک ♻️ فیلم های دکتر رضوی ♻️ آموزش عملی ANN در پایتون ♻️ چگونگی ساخت RNN در پایتون 🏧 نقشه راه ML 🏧 منابعی جامع از ML 🏧 16 منبع آموزشی الگوریتمهای AI 🏧 یادگیری تقویتی عمیق :تعاریف و تاریخچه ♨️ یادگیری ماشین برای مبتدیان ♨️ پاکسازی دیتاها در ML ♨️ ملزومات فراگیری برای الگوریتمهای یادگیری ماشین مزایا و کاراییها ♨️ فیلم کنفرانسهای مطرح هشتگ کنفرانس و مقاله سرچ کنید ♨️ آموزشی پیشرفته ای NLP در ژوپیتر 📣 یادگیری غیرنظارتی برای همه 📣 الگوریتمهای یادگیری ماشین :برآوردگرها ,تابع زیان 📣 یادگیری کورسهای fastai 📣 ریاضیات یادگیری عمیق شبکه های عصبی به زبان ساده 📣 آموزش CNN به زبان ساده 🔸 آموزش مقدماتی یادگیری ماشین برای همه سنین 🔸 آموزش ML بدون پیش زمینه ریاضیاتی 🔸 10 کتاب برای یادگیری ML هشتگ کتاب سرچ کنید 🔸 چگونه به وسیله الگوریتمهای یادگیری عمیق مسایل را حل کنیم ؟ 🔸 خلاصه الگوریتمهای ML 🔸آموزشهای جامع از AI ✔️ آموزش درک زبان طبیعی دانشگاه استنفورد ۲۰۱۹ ✔️ آموزش DataScience و آموزش ✔️ آموزش مقدماتی مدلهای GAN در پایتون
10 YouTube videos for anyone starting with machine learning. On libraries, algorithms, and tools: 1. Notebooks are a fantastic way to code, experiment, and communicate your results. Take a look at Corey Schafer fantastic 30-minute tutorial on Jupyter Notebooks. https://m.youtube.com/watch?v=HW29067qVWk 2. The Pandas library is the gold standard to manipulate structured data. Check out Joe James "Pandas Tutorial. Intro to DataFrames." https://m.youtube.com/watch?v=HW29067qVWk 3. Data visualization is key for anyone practicing machine learning. Check out Blondiebytes's "Learn Matplotlib in 6 minutes" tutorial. https://youtu.be/nzKy9GY12yo 4. Another trendy data visualization library is Seaborn. Derek Banas put together "Seaborn Tutorial 2020," which is highly recommend. https://youtu.be/6GUZXDef2U0 5. Numpy is another Python library that you will use every single day. Keith Galli's "Complete Python NumPy Tutorial" is a great start. https://youtu.be/6GUZXDef2U0 6. One of the most basic algorithms that you can learn is Decision Trees. Watch Josh Gordon's video where he builds a decision tree from scratch. https://youtu.be/LDRbO9a6XPU 7. It's hard to talk about the Machine learning without touching on Neural Networks. Probably the best video out there that explains how neural networks work is 3blue1brown's: https://m.youtube.com/watch?v=aircAruvnKk 8. Scikit-Learn is one of the most popular machine learning libraries out there. Simplilearn's "Scikit-Learn Tutorial" is a great place to start. https://youtu.be/0Lt9w-BxKFQ 9. TensorFlow is the most popular deep learning library that's currently used in the industry. Here is a massive 7-hour tutorial of TensorFlow 2.0 produced by Free Code Camp. https://youtu.be/tPYj3fFJGjk 10. Finally, a great way to start getting familiar with machine learning is the bite-sized recipes published by Google. This series is worth every minute. Playlist: https://m.youtube.com/watch?v=cKxRvEZd3Mw&list=PLOU2XLYxmsIIuiBfYad6rFYQU_jL2ryal ✅ @AI_Python
📌 تعدادی از ابزارهای هوش مصنوعی که توی جعبه ابزارتون نیاز میشه! Here are the top AI tools you NEED to know about. 1. Krisp: Krisp's AI removes background voices, noises, and echo from your calls, giving you peace of call Link: https://krisp.ai/ 2. Beatoven: Create unique royalty-free music that elevates your story Link: https://www.beatoven.ai/ 3. Cleanvoice: Automatically edit your podcast episodes Link: https://cleanvoice.ai/ 4. Podcastle: Studio quality recording, right from your computer Link: https://podcastle.ai/ 5. Flair: Design branded content in a flash Link: https://flair.ai/ 6. Illustroke: Create killer vector images from text prompts Link: https://illustroke.com/ 7. Patterned: Generate the exact patterns you need for and design Link: https://www.patterned.ai/ 8. Stockimg: Generate the perfect stock photo you need, every time Link: https://stockimg.ai/ 9. Copy: AI Generated copy, that actually increases conversion Link:https://www.copy.ai/ 10. CopyMonkey: Create Amazon listings in seconds Link: http://copymonkey.ai/ 11. Ocoya: Create and schedule social media content 10x faster Link: https://www.ocoya.com/ 12. Unbounce Smart Copy: Write high-performing cold emails at scale Link: https://unbounce.com/ 13. Vidyo: Make short-form vids from long-form content in just a few clicks Link: https://vidyo.ai/ 14. Maverick: Generate personalized videos at scale Link:https://lnkd.in/dmrkz_ah 15. Quickchat: AI chatbots that automate customer service charts Link: https://www.quickchat.ai/ 16. Puzzle: Build an AI-powered knowledge base for your team and customers Link: https://www.puzzlelabs.ai/ 17. Soundraw: Stop searching for the song you need. Create it. Link: https://soundraw.io/ 18. Cleanup: Remove any wanted object, defect, people, or text from your pictures in seconds Link: https://cleanup.pictures/ 19. Resumeworded: Improve your resume and LinkedIn profile Link: https://lnkd.in/d9EurcnX 20. Looka: Design your own beautiful brand Link: https://looka.com/ 21. theresanaiforthat: Comprehensive database of AIs available for every task Link: https://lnkd.in/dKhqaaF3 22. Synthesia: Create AI videos by simply typing in text. Link: https://www.synthesia.io/ 23. descript: New way to make video and podcasts Link: https://lnkd.in/d_Kdj35E 24. Otter: Capture and share insights from your meetings Link: https://otter.ai/ 25. Inkforall: AI content (Generation, Optimization, Performance) Link: https://inkforall.com/ 26. Thundercontent: Generate Content with AI Link: https://lnkd.in/djFxMZsZ #RealWorldProjects #AiToolBox @ai_python
📽 مجموعه ای از ویدیوهای آپارات و OCW دانشگاه شریف هوش مصنوعی - دکتر رهبان https://lnkd.in/dky6WZeP ماشین لرنینگ - دکتر رهبان https://lnkd.in/dKbUXN_x فرایند تصادفی - دکتر رهبان https://lnkd.in/d8Ecqw3Q پردازش هوشمند تصاویر زیست-پزشکی https://lnkd.in/dwazQNTH https://lnkd.in/dCDJPeQt ReACT 2023 https://lnkd.in/dFZXqcew IWCIT 2022 https://lnkd.in/dH7Hqani آمار و احتمال مهندسی - دکتر امینی https://lnkd.in/diuancHJ تشخیص الگو - دکتر فاطمی زاده https://lnkd.in/dScHFtje خلاقیت الگوریتمی و برنامه‌نویسی پایتون (مخصوص دانش‌آموزان متوسطه‌ی اول و دوم) - در حال تکمیل https://lnkd.in/d-7C8bdS الگوریتم های بیوانفورماتیک - دکتر شریفی زارچی https://lnkd.in/dyWrqGn8 داده ساختارها و مبانی الگوریتم ها - دکتر شریفی زارچی https://lnkd.in/dG5JhGzC بیو انفورماتیک پیشرفته - دکتر شریفی زارچی https://lnkd.in/dQbvnXsm یادگیری ماشین - دکتر سلیمانی https://lnkd.in/dwPEBD-6 هوش مصنوعی- دکتر سلیمانی https://lnkd.in/dQGsuwjT یادگیری برخط - محمدهادی فروغمند -کسری علیشاهی https://lnkd.in/dVCEbguf مباحثی در علوم داده (یادگیری بندیت) - https://lnkd.in/dWA8wiKM بهینه سازی در علوم داده ها - محمدهادی فروغمند https://lnkd.in/dPtdmGUi مباحثی در آمار (روش‌های بیزی در آمار و یادگیری) - کسری علیشاهی https://lnkd.in/dbb6ANd7 بهینه سازی محدب - مجتبی تفاق https://lnkd.in/d7h4bqs5 یادگیری تقویتی - کسری علیشاهی https://lnkd.in/d8S7m86N مقدمه ای بر بیوانفورماتیک (تحلیل داده های زیستی) - علی شریفی زارچی https://lnkd.in/dWkZbMcn 👤 Babak Khalaj @ai_python
یادگیری ماشین به شیوه Reinforcement Learning یکی از تکنیک هایی هست که کاربردهای بسیاری به خصوص در صنعت رباتیک 🤖 🤖 داره. پلی لیست زیر که حدود 2 سال پیش در یوتیوب منتشر شده ، چشم انداز مناسبی در رابطه با RL در اختیار ما قرار می دهد : Reinforcement Learning - Fall 2021 @ai_python سرفصل ها : 🎓 Introduction to RL 🎰 Multi-armed Bandits 📈 Policy Gradient Methods 🎯 Contextual Bandits 🔄 Finite Markov Decision Process 💻 Dynamic Programming 🔄 Policy Iteration, Value Iteration 🎲 Monte Carlo Methods پی نوشت برای مبتدی ها و علاقه مندان : RL مثل این می مونه که ماشین با شیوه پاداش و تنبیه راه حرکت کردن توی یک هزارتو رو یاد بگیره. یعنی هر چی به هدف نزدیک تر شد پاداش بگیره و هر چه قدر به بن بست نزدیک شد ، جریمه بشه. اگه بیش تر به مثالی که گفتم فکر کنید ، می تونید تصور کنید چرا توی رباتیک کاربرد داره. برای مثال آموزش راه رفتن به ربات ها، ماشین های خودران، بازی سازی (حتی مسائل ساده تری مثل بازی شطرنج) و شاید به نظر من یکی از مهم ترین کاربردها در صنعت Health Care برای شخصی سازی پلن های درمان و در نهایت حوزه مالی 🤑🤑 و حتی خود NLP !!! خلاصه که فعلن جا برای مطالعه و یادگیری زیاد داره 🔖
🇦🇹 اولین وبینار تخصصی معرفی فرصت های تحصیلی در مقطع لیسانس برای علاقه مندان به رشته علوم کامپیوتر و علاقه مندان به تحصیل در کشور اتریش آیا می دانید ، شما فقط با قبولی کنکور در دانشگاه های ایران به عنوان مدرک تحصیلی ، می توانید از دانشگاه ملی وین در اتریش، به رایگان و بدون کمک گرفتن از موسسات مهاجرتی، پذیرش تحصیلی بگیرید؟ 🤩 وبینار پرسش و پاسخ و معرفی شرایط تحصیل در رشته علوم کامپیوتر در دانشگاه های کشور اتریش : 🗓 1 اسفند 1402 - 20 فوریه 2024 📆 ⏰ ساعت 19:30 به وقت تهران ⏱ هزینه شرکت در این وبینار برای اعضای گروه پرسش و پاسخ علوم کامپیوتر فقط 1 میلیون تومان 😍 (پرداخت اجباری نیست و فقط برای امکان تداوم کار دریافت می شود) ➕ دانشگاه های شهر وین در اتریش برای رشته علوم کامپیوتر ➕ شرایط پذیرش در دانشگاه های وین برای رشته علوم کامپیوتر ➕ شرایط ویزا در کشور اتریش برای تحصیل در رشته علوم کامپیوتر ➕ آزمون ورودی رشته علوم کامپیوتر برای دانشگاه ملی وین و دانشگاه تکنیک وین 🇪🇺 اطلاعات بیش تر درباره شرایط ویزا و اقامت در اتریش برای دانشجویان در گروه فارسی زبانان اروپا 🏰 ارتباط و ثبت نام لینکداین برگزار کننده وبینار توییتر اینستاگرام
🇦🇹 اولین وبینار تخصصی معرفی فرصت های تحصیلی در مقطع لیسانس برای علاقه مندان به رشته علوم کامپیوتر و علاقه مندان به تحصیل در کشور اتریش آیا می دانید ، شما فقط با قبولی کنکور در دانشگاه های ایران به عنوان مدرک تحصیلی ، می توانید از دانشگاه ملی وین در اتریش، به رایگان و بدون کمک گرفتن از موسسات مهاجرتی، پذیرش تحصیلی بگیرید؟ 🤩 وبینار پرسش و پاسخ و معرفی شرایط تحصیل در رشته علوم کامپیوتر در دانشگاه های کشور اتریش : 🗓 1 اسفند 1402 - 20 فوریه 2024 📆 ⏰ ساعت 19:30 به وقت تهران ⏱ هزینه شرکت در این وبینار برای اعضای گروه پرسش و پاسخ علوم کامپیوتر فقط 1 میلیون تومان 😍 (پرداخت اجباری نیست و فقط برای امکان تداوم کار دریافت می شود) ➕ دانشگاه های شهر وین در اتریش برای رشته علوم کامپیوتر ➕ شرایط پذیرش در دانشگاه های وین برای رشته علوم کامپیوتر ➕ شرایط ویزا در کشور اتریش برای تحصیل در رشته علوم کامپیوتر ➕ آزمون ورودی رشته علوم کامپیوتر برای دانشگاه ملی وین و دانشگاه تکنیک وین 🇪🇺 اطلاعات بیش تر درباره شرایط ویزا و اقامت در اتریش برای دانشجویان در گروه فارسی زبانان اروپا 🏰 ارتباط و ثبت نام لینکداین برگزار کننده وبینار توییتر اینستاگرام
@ai_python از زمان عمومی شدن استفاده از چت جی پی تی، نگرانی های زیادی در قشر آکادمیک پیدا شد. اکنون بعد از نزدیک به ۱ سال و چند ماه، برخی از دانشگاه های مهم اتریش، از جمله اف ها وین و دانشگاه و کا و تصمیم گرفتند که از پاییز ۲۰۲۴ شیوه بچلر آربایت را تغییر دهند. @ai_python بچلر آربایت در اتریش و آلمان به نوعی پایان نامه دوره لیسانس محسوب می شود. که بر اساس قانون یک داکیومنت نوشتاری حدود ۶۰ صفحه ای بود. اکنون این دو دانشگاه اعلام کرده اند که آن را با نوعی پروژه تحقیقاتی در گروه های ۱۰ تا ۱۲ نفره جایگزین خواهند کرد. @ai_python البته با توجه به محدودیت های قانونی حذف کامل فرمت نوشتاری در حال حاضر ممکن نیست. اما قرار است بخش نوشتاری از این به بعد داکیومنتیشنی از کار انجام شده باشد. پس از ارسال پست روزنامه اشتاندارد که در تصویر آن را در اینستاگرام می بینید، این تصمیم از سوی دانشجو ها مورد استقبال واقع نشد. در واقع در بخش نظرات می توانید دلایل بسیار زیادی برای مخالفت با این تصمیم بخوانید. همین طور سوالی که برای خود من پیش اومده، اینه که آیا این تصمیم تحصیل رو برای دانشجویان طیف اوتیسم و نورودایورجنت ها سخت تر نخواهد کرد؟ نظر شما چیه؟
ERROR: type should be string, got "https://arxiv.org/abs/2308.02312\n\n@ai_python\n\nQ&A platforms have been crucial for the online help-seeking behavior of programmers. However, the recent popularity of ChatGPT is altering this trend. Despite this popularity, no comprehensive study has been conducted to evaluate the characteristics of ChatGPT's answers to programming questions. To bridge the gap, we conducted the first in-depth analysis of ChatGPT answers to 517 programming questions on Stack Overflow and examined the correctness, consistency, comprehensiveness, and conciseness of ChatGPT answers. Furthermore, we conducted a large-scale linguistic analysis, as well as a user study, to understand the characteristics of ChatGPT answers from linguistic and human aspects. Our analysis shows that 52% of ChatGPT answers contain incorrect information and 77% are verbose. Nonetheless, our user study participants still preferred ChatGPT answers 35% of the time due to their comprehensiveness and well-articulated language style. However, they also overlooked the misinformation in the ChatGPT answers 39% of the time. This implies the need to counter misinformation in ChatGPT answers to programming questions and raise awareness of the risks associated with seemingly correct answers."
@ai_python زمانی که ایران، کار و زندگی می کردم، یک رویکرد عمومی بین متخصصین بسیاری از حوزه ها وجود داشت و اون این که بسیاری از ما ( از جمله خودم ) عقیده داشتیم در خارج از ایران، یا بهتره بگم حداقل در کشورهای پیشرو تر، مثل آمریکا و کشورهای اروپایی رویکرد عمومی در سازمان ها و کسب و کارهای حوزه اینفورماتیک و تکنولوژی، بر میکروتخصص گرایی است. یعنی چی؟ یعنی برای مثال ممکنه در شبکه های اجتماعی بسیار دیده باشید، که یک آگهی شغلی ایرانی را مسخره می کنند به این دلیل که از یک متخصص انتظار دارند که هم زمان که به سیسکو مسلط هست، به برنامه نویسی هم مسلط باشد، یا در کنار آن برای مثال متخصص VoIP باشد. @ai_python یا ممکن بود در یک آگهی ببینیم که متخصص هوش مصنوعی نیاز دارند که به یکی یا همه فریم ورک های جاوا هم مسلط باشد و همزمان متخصص انواع سرویس های کلاود باشد. در واقع این یکی از اولین شوک های من در زمانی بود که به اتریش مهاجرت کردم: در اولین مصاحبه شغلی زمانی که من فکر می کردم که دانش آن زمان من در خصوص یک موضوع (فرض بگیرید تخصص X ) برای گرفتن جایگاه شغلی در سازمان بزرگی که چند 10 متخصص دیگر در حوزه های مکمل داشت، کافی باشد، با سوالات زیادی از طرف تیم 4 یا 5 نفره ای که با من مصاحبه می کردند مواجه شدم که اصلن در حوزه تخصص X نمی گنجیدند. بماند که خواستم از زیر سوالاتشون با ترفند : هنوز به راحتی نمی توانم این ها را به زبان آلمانی توضیح دهم، فرار کنم ... و آن ها مچم را با این که ایرادی ندارد و به انگلیسی بگو، یا حتی روی لپ تاپ انجام بده گرفتند. 😵‍💫 به هر حال بعد از این مصاحبه با خودم گفتم، حتمن این سازمان خاص به این شکل است. اما رفته رفته هرچه قدر بیش تر مصاحبه رفتم و بیش تر به عنوان یک جویای کار جدی ، توضیحات آلمانی و انگلیسی جایگاه های شغلی را مرور کردم، بیش تر هم به این نتیجه رسیدم که این افسانه که در خارج از ایران فقط از ما توقع یک تخصص خاص را دارند، صحت ندارد. البته امروز دلیل آن را نیز درک می کنم. دلیل آن این است که مدیریت هزینه بحث بسیار جدی برای پابرجایی هر نوع کسب و کاری که بگویید است. چه آن کسب و کار رولکس باشد، چه کلاود فلر که بعدها با آن ها هم برای جایگاه ساده پشتیبانی مصاحبه کردم و چه یک استارت آپ ابتدایی با هزینه بسیار محدود. امروز که توییت قابل مشاهده در تصویر را از Adam Grant روان شناس سازمانی دیدم، یاد این مطلب افتادم و از آن جایی که روزانه تعداد بسیار بالایی که اتریش را به عنوان مقصد مهاجرت شان انتخاب کرده اند از من درباره اینکه برای آینده شغلی بهتر در اتریش و امکان ورود سریع به بازار کار سوال می پرسند، تصمیم گرفتم این موضوع و تجربه را عنوان کنم. البته تجربه من محدود به اتریش و طبیعتن کسب و کارهایی که من 6 سال پیش برایشان درخواست کار می فرستادم هست. @ai_python شاید در کامنت های این پست نقطه نظرات و تجربیات دیگری را نیز بیابید. ولی توجه شما را به این تصویر بسیار زیبا و کپشن بسیار ارزشمند Adam Grant جلب می کنم. این که ما در نهایت به تمام طیف جنرالیست ها و اسپشیالیست ها نیاز داریم. ممکن است به طور کلی همچنان این حقیقت داشته باشد که سازمان های بزرگ تر بیش تر ( نه تمامن ) جذب کننده Specialist ها خواهند بود و کسب و کارهای نوپا با بودجه محدود به دنبال Generalist ها. اما وجود هر دو برای دوام یک سازمان یا اکوسیستم تجاری ضروری و مورد نیاز است. 👨‍💻 لینک توییتر Adam Grant
اون چیزی که امروز به عنوان Agentic AI می شناسیم خیلی خیلی گسترده س و کارهای بسیار زیادی می شه باهاش کرد در بُعد Production @ai_python برای اینکه این گستردگی رو درک کنیم بهتره ببینیم که اصلن چه نوع Tool هایی در Agentic AI در اختیارمون هست؟ Information Retrieval Systems like RAG: 👨‍💻 خود سیستم های Retrieval مثل انواع RAG جز Tool ها محسوب می شوند. ممکنه در یک برنامه صنعتی یا کاربردی شما مجبور به استفاده از چند سیستم مختلف RAG برای کاربردهای متنوع شوید. مثلن : یک RAG برای خواندن قرارداد ها یک RAG برای استخراج داده از فاکتورهای فروش و الی آخر که در زمان مناسب توسط Orchestrator فرا خوانده خواهند شد. @ai_python Data stores providing CRUD operations: ابزارهایی که با استفاده از آن ها می توانید با دیتای بانک های داده مختلف کار کنید. از کتابخانه های مستتر در LangChain گرفته تا ابزارهایی که حتی بسته به نیاز خودمان می توانیم در داخل برنامه آن ها را کد نویسی کنیم. در این بین از کاربرد Function Calling نباید غافل شد. Function that take inputs and provide outputs: توابع مختلف که خودمان می توانیم به صورت سفارشی برای محصول مان بنویسیم و Orchestrator در زمان مناسب تصمیم می گیرد که از آن ها استفاده کند. Microservices that collaborate with the agentic AI system برای مثال می توانید از ویژگی های portkey به عنوان یک میکروسرویس میزبانی شده بر روی کلاود فلر استفاده کنید و به راحتی درخواست های مختلف را به مدل های اختصاصی هر درخواست ارجاع دهید! GenAI models for image generation, video analysis, translation, etc. 🖥 قطعن مدل های دیگر نیز خود یک Tool محسوب می شوند. @ai_python Cloud platforms (SaaS, IaaS, PaaS) امکانات و سرویس های مختلفی که بر روی Cloud وجو دارند. Another agentic AI system و در نهایت فراموش نکنیم که حتی یک سیستم Agentic AI دیگر نیز می تواند به عنوان Tool در محصول ما استفاده شود.
@ai_python https://www.arxiv.org/abs/2409.19924 Recent advancements in Large Language Models (LLMs) have showcased their ability to perform complex reasoning tasks, but their effectiveness in planning remains underexplored. In this study, we evaluate the planning capabilities of OpenAI's o1 models across a variety of benchmark tasks, focusing on three key aspects: feasibility, optimality, and generalizability. Through empirical evaluations on constraint-heavy tasks (e.g., Barman, Tyreworld) and spatially complex environments (e.g., Termes, Floortile), we highlight o1-preview's strengths in self-evaluation and constraint-following, while also identifying bottlenecks in decision-making and memory management, particularly in tasks requiring robust spatial reasoning. Our results reveal that o1-preview outperforms GPT-4 in adhering to task constraints and managing state transitions in structured environments. However, the model often generates suboptimal solutions with redundant actions and struggles to generalize effectively in spatially complex tasks. This pilot study provides foundational insights into the planning limitations of LLMs, offering key directions for future research on improving memory management, decision-making, and generalization in LLM-based planning. Code: https://github.com/VITA-Group/o1-planning
این لینک رو گذاشته بودم قبلن؟ @ai_python https://youtu.be/9vM4p9NN0Ts?si=ej9z95_opfsM2RRn For more information about Stanford's Artificial Intelligence programs visit: https://stanford.io/ai This lecture provides a concise overview of building a ChatGPT-like model, covering both pretraining (language modeling) and post-training (SFT/RLHF). For each component, it explores common practices in data collection, algorithms, and evaluation methods. This guest lecture was delivered by Yann Dubois in Stanford’s CS229: Machine Learning course, in Summer 2024. Yann Dubois PhD Student at Stanford https://yanndubs.github.io/ About the speaker: Yann Dubois is a fourth-year CS PhD student advised by Percy Liang and Tatsu Hashimoto. His research focuses on improving the effectiveness of AI when resources are scarce. Most recently, he has been part of the Alpaca team, working on training and evaluating language models more efficiently using other LLMs. To view all online courses and programs offered by Stanford, visit: http://online.stanford.edu
در این سخنرانی، خانم چیانکیان شی درباره پروژه Me-LLaMA صحبت می‌کند؛ یک مدل زبانی بزرگ و تخصصی در حوزه پزشکی که با آموزش مدل‌های LLaMA به کمک داده‌های گسترده و تخصصی، عملکرد قابل توجهی در تحلیل متون پزشکی ارائه می‌دهد. این مدل که از ۱۲۹ میلیارد توکن و ۲۱۴ هزار نمونه دستورالعمل‌های آموزشی بهره برده، با بیش از ۱۰۰ هزار ساعت GPU آموزش دیده است و در مقایسه با دیگر مدل‌ها از جمله GPT-4 در بسیاری از داده‌سنجی‌ها عملکرد بهتری دارد. Me-LLaMA برای تحلیل متون پزشکی در شش زمینه و با استفاده از ۱۲ مجموعه داده مختلف مورد ارزیابی قرار گرفته و نتایج بالاتری نسبت به مدل‌های اوپن سورس و تجاری دیگر نشان داده است. این مدل به صورت عمومی با شرایط خاص در دسترس است. منظورم از شرایط خاص appropriate user agreements هستش. @ai_python درباره سخنران: محقق در دانشگاه ییل است که بر پردازش زبان طبیعی و کاربردهای آن در پزشکی تمرکز دارد. او برنده جایزه‌ی "Pathway to Independence Award" است و بیش از ۵۰ مقاله علمی منتشر کرده است. @ai_python جلسات MedAI Group Exchange: این جلسات هفتگی به میزبانی گروه MedAI و با مشارکت اعضای آزمایشگاه روبین و آزمایشگاه MI-2 دانشگاه استنفورد برگزار می‌شود. در این جلسات، سخنرانان درباره تحقیقات خود صحبت کرده و با حضار به بحث و پرسش و پاسخ می‌پردازند. برای اطلاع از جلسات آینده می‌توانید به سایت MedAI یا توییتر آن‌ها مراجعه کرده و به لیست ایمیل بپیوندید. لینک ویدیو : https://www.youtube.com/watch?v=V5FZBQMGSog
یهو یادم اومد زمانی که من تازه اومدم اتریش ، یه پلت فرمی داشت مایکروسافت که اپلای می کردیم و اگر قبول می شدیم، به سوالات ملت توی Microsoft Community به آلمانی جواب می دادیم و بابتش بهمون پول می دادن. @MigrationEasy البته داستان این بود که باید با هندی های بسیاری که اونا هم زبان آلمانی بلد بودن رقابت می کردی. (توی زبان های دیگه ش هم می تونید اپلای کنید، اگر بلدید) خلاصه لینک اپلایش رو می ذارم برای دوستان زیادی که تازه مهاجرت کردن از ایران به یک کشور جدید و خیلی پیغام می دن و می گن که ما ایران هلپ دسک یا کارشناس آی تی بودیم. البته من شخصن اون زمان نتونستم اون قدری که باید و شاید براش وقت بذارم با وجود دغدغه های خود مهاجرت و کم کم اکانتم غیر فعال شد و شاید حداکثر درآمدم هم از این راه در ماه فقط 300 یورو بود ( اون زمان پرداخت ها هفتگی بود ) چون خیلی سخته که با اکانت های هندی رقابت کنید و سوالات رو زودتر از اونا Accept کنید و درحالی که Accept می کنید مطمئن باشید که اون شخص رو تا انتها می تونید راهنمایی کنید. https://microsoft-community.directly.com/apply/multi یه نکته دیگه اینکه اون سایتی که بعد از قبولی در مرحله اپلای روش به سوالات پاسخ می دید به جز مایکروسافت کامیونیتی مشتری های دیگه هم داره. مثل شاتر استاک یا اوبر و ... که شاید بشه برای پاسخ به سوالات مشتری های اونا هم اپلای کرد.
این روزا خبری در توییتر داغ شده که یک یوتیوبر حوزه ماشین لرنینگ به نام Zara Dar تصمیم گرفته از پروگرم PhD خارج بشه و به صورت تمام وقت در OnlyFans مشغول به کار بشه. @ai_python البته برای خود من عجیبه که با این که همیشه ویدیو های ماشین لرنینگ از توی یوتیوب نگاه می کردم ، این قدری که ادعا شده ایشون مشهور بوده برای من ویدیو های این خانم پیشنهاد داده نمی شد 🤪 و اصن تا قبل از این خبر نمی شناختمشون. @ai_python بعد از این خبر رفتم که ویدیو های کانالش رو نگاه کنم و به نظرم نسبت به کانال های دیگه این حوزه خیلی کم تر بودن ! 👀 خلاصه اینم از اون داستان های جالبه که شاید حالا که تعطیلات کریسمس هست براتون دنبال کردنش جالب باشه. این آدرس کانال یوتیوب ایشون هست : https://www.youtube.com/@zara-dar ظاهرن یه ریپازیتوری هم برای اطلاع نوتیف های OnlyFans درست کردن که در این لینک می تونید به گیت هابش دسترسی داشته باشید : https://github.com/zaradarz/OnlyFans-Notification-Robot شماها هیچ کدوم ایشون رو می شناختید تا قبل از این؟ اینم بگم که گفتن اگر چه که تمام وقت توی OnlyFans کار خواهند کرد، اما این امکان براشون فراهم می شه که به راحتی در کنارش تولید محتوای STEM-related و تدریس اون رو هم با فراغ بال از نگرانی های مالی ادامه بدن.
پادکست Real Python در خصوص رویکردهای Sentiment Analysis با پایتون در گفت و گو با Jodie Burchell که PhD در کلینیکال سایکولوژی داره ولی هم اکنون به عنوان دیتاساینتیست در JetBrains هم کار می کنه : @ai_python https://realpython.com/podcasts/rpp/232/ Topics: 🎙 00:00:00 – Introduction 00:02:31 – Conference talks in 2024 00:04:23 – Background on sentiment analysis and studying feelings 00:07:09 – What led you to study emotions? 00:08:57 – Dimensional emotion classification 00:10:42 – Different types of sentiment analysis 00:14:28 – Lexicon-based approaches 00:17:50 – VADER - Valence Aware Dictionary and sEntiment Reasoner 00:19:41 – TextBlob and subjectivity scoring 00:21:48 – Sponsor: Sentry 00:22:52 – Measuring sentiment of New Year’s resolutions 00:27:28 – Lexicon-based approaches links for experimenting 00:28:35 – Multiple language support in lexicon-based packages 00:35:23 – Machine learning techniques 00:39:20 – Tools for this approach 00:42:54 – Video Course Spotlight 00:44:15 – Advantages to the machine learning models approach 00:45:55 – Large language model approach 00:48:44 – Encoder vs decoder models 00:52:09 – Comparing the concept of fine-tuning 00:56:49 – Is this a recent development? 00:58:08 – Ways to practice with these techniques 01:00:10 – Do you find this to be a promising approach? 01:07:45 – Resources to practice with all the techniques 01:11:06 – Upcoming conference talks 01:11:56 – Thanks and goodbye
برترین کتابخانه‌های تخصصی پایتون همواره یکی از چالش‌های متخصصین علم‌داده انتخاب پلتفرم و کتابخانه‌های تحلیلی جهت پیاده‌سازی پروژه‌ها بوده است. در ادامه برترین کتابخانه‌های زبان برنامه‌نویسی پایتون به تفکیک در حوزه‌های تحلیل‌داده، یادگیری ماشین، یادگیری عمیق و... معرفی شده است. قابل ذکر است که کتابخانه‌های برتر در هر دسته با علامت مشکی و Bold درج شده‌اند. 🔹کتابخانه‌های تحلیل‌داده: ▪️Pandas ▪️Numpy ▫️SciPy ▫️StatsModels 🔹کتابخانه‌های یادگیری ماشین: ▪️Scikit Learn ▫️PyBrain ▫️XGBoost ▫️Eli5 🔹کتابخانه‌های پردازش زبان طبیعی: ▪️NLTK ▪️Hazm ▫️Gensim ▫️SpaCy ▫️fastText 🔹کتابخانه‌های مصورسازی: ▪️Matplotlib ▫️Bokeh ▫️Seaborn ▫️Plotly 🔹کتابخانه‌های یادگیری عمیق: ▪️Keras ▪️Tensorflow ▫️Theano ▫️Pytorch 🔹کتابخانه‌های تحلیل گراف: ▪️NetworkX ▫️igraph ▫️graph-tool 🔹کتابخانه‌های جمع‌آوری داده(خزشگر): ▪️Scrapy ▪️Urllib ▫️Selenium ▫️Requests ▫️Beautiful Soup ▫️lxml 🔹کتابخانه‌های پردازش تصویر: ▪️Scikit-image ▪️OpenCV ▫️Pillow پی‌نوشت: جهت یادگیری هر از این کتابخانه‌ها دوره‌های آموزشی، کتاب‌ها و Toturialهای تخصصی بسیاری در اینترنت وجود دارد. 🧠 آقای هوش مصنوعی 🧠 مرجع آموزش هوش مصنوعی ایران @MrArtificialintelligence
فراخوان مقالات Call for Paper ششمین کنفرانس بین‌المللی بازشناسی الگو و تحلیل تصویر The 6th International Conference on Pattern Recognition and Image Analysis (IPRIA 2023) 25 تا 27 بهمن ۱۴۰۱ دانشگاه تهران http://ipria2023.ismvipconf.ir ششمین کنفرانس بین‌المللی بازشناسی الگو و تحلیل تصویر (IPRIA) در دانشکده مهندسی دانشکدگان فارابی دانشگاه تهران توسط انجمن بینایی ماشین و پردازش تصویر ایران با همکاری دانشگاه تهران در تاریخ ۲۵ تا ۲۷ بهمن ۱۴۰۱ برگزار می‌گردد. این کنفرانس مطابق روال دوره‌های گذشته محلی برای ارائه‌ی آخرین یافته‌های پژوهشگران و مباحثه پیرامون ایده‌های آنها در حوزه‌ی بازشناسی الگو، یادگیری ماشین، بینایی ماشین و تحلیل تصویر می‌باشد. متخصصان و پژوهشگران برای ارائه‌ی ایده‌های جدید و آخرین دستاوردهای خود به این کنفرانس دعوت می‌شوند. تمامی موضوعات مرتبط با حوزه‌ی بازشناسی الگو، یادگیری ماشین، بینایی ماشین، تحلیل تصویر و کاربردهای آنها قابل قبول می‌باشند. مقالات این کنفرانس به انتخاب نویسنده به دو زبان فارسی و انگلیسی دریافت می‌شوند. • مهلت دریافت مقالات: ۳۰ آبان ۱۴۰۱ تمدید شد: ۳۰ آذر ۱۴۰۱
📣 آغاز به کار کانال اختصاصی دانشگاه تهران در «لنز» 🔸 شبکه «تلویزیون اینترنتی دانشگاه تهران»، در جمع کانال‌های اختصاصی تلویزیون اینترنتی لنز ایرانسل قرار گرفت. 🔸 شبکه تلویزیون اینترنتی دانشگاه تهران که با هدف اجتماعی کردن علم و حضور دانشگاه در حل مسأله‌های جامعه با به‌کارگیری ظرفیت‌ها و توانمندی‌های استادان، فارغ‌التحصیلان و دانشجویان ایجاد شده است، رسانه‌ای مستقل با تولیدات ویدیویی ارزنده، در حوزه دانشگاهی محسوب می‌شود. این شبکه طی همکاری با تلویزیون اینترنتی اولین و بزرگترین اپراتور دیجیتال ایران، محتواهای خود را از طریق کانال دانشگاه تهران، برای مخاطبان لنز پخش می‌کند. 🔸 راه‌اندازی کانال تلویزیون اینترنتی دانشگاه تهران در لنز، یکی از مفاد تفاهم‌نامه‌ای است که ۳۱ خرداد ۱۴۰۲ طی مراسمی با حضور دکتر محمد مقیمی رئیس دانشگاه تهران و دکتر بیژن عباسی‌آرند مدیرعامل ایرانسل امضا شد. 🔸 علاقه‌مندان برای دسترسی به محتواهای شبکه دانشگاه تهران در تلویزیون اینترنتی اولین و بزرگترین اپراتور دیجیتال ایران، می‌توانند به نشانی https://b2n.ir/t73058 مراجعه کنند. ℹ️جزئیات بیشتر: 🌐https://irancell.ir/b/302266/b @irancellnews1
🌑 آقای هوش مصنوعی🌑 🎥رسانه هوش مصنوعی دانشگاه تهران 📕 بنیاد رزبری نسل جدید برد کامپیوتری رزبری پای 5 رو بعد از چهار سال از نسل قبلی، رونمایی کرد. رزبری پای 5 با چیپ جدید BCM2712 که دارای 4 هسته Cortex-A76 هست، سرعت اون 2 تا 3 برابر بیشتر شده و با 2 پورت micro HDMI میتونه به دو مانیتور 4K@60 به طور همزمان متصل بشه و ویدیوهای HEVC رو سخت افزاری دیکود کنه. ورودی MicroSD اون هم دو برابر سریعتر شده. این برد دارای دو پورت USB 3.0، دو پورت USB 2.0، پورت گیگابیتی لن، وایفای 802.11ac، بلوتوث 5 هست و دو درگاه FPC برای اتصال نمایشگر و دوربین قرار داده. رزبری برای اولین بار دکمه خاموش روشن، RTC برای نگهداری زمان و اسلات PCIe Gen 2.0 x1 اضافه کرده که امکان اتصال وسایل مختلفی از جمله SSDهای M.2 و حتی کارت گرافیک خارجی رو هم فراهم میکنه. رزبری این برد جدید رو همراه با 4 گیگ رم LPDDR4X با قیمت 60 دلار و نسخه با 8 گیگ رم رو با قیمت 80 دلار از ماه اکتبر به بازار عرضه میکنه. سایت پردازش تصویر ایران مجله تحول دیجیتال و هوش مصنوعی https://imageprocessing.ir/ کانال تلگرامی ما @MrArtificialintelligence
شرکت گوگل از قدرتمندترین هوش مصنوعی خودش به نام Gemini برای رقابت با مدل GPT-4 رونمایی کرد. به گفته مدیرعامل گوگل هوش مصنوعی Gemini نقطه عطفی برای این شرکت محسوب میشه و قدرت بالای اون روی تمام محصولات گوگل تاثیر خواهد گذاشت و اونهارو بهتر خواهد کرد. هوش مصنوعی Gemini در سه مدل عرضه میشه: مدل Nano کوچکترین و بهینه ترین اونهاست که میتونه به صورت افلاین در گوشیهای اندرویدی استفاده بشه. مدل Pro مدل بهینه و سریعی هست که قدرتی در حد GPT 3.5 داره و در کارهای مختلف میشه از اون استفاده کرد و در طیف وسیعی از محصولات گوگل از جمله سرچ، کروم و غیره از اون استفاده خواهد شد. مدل Ultra که رقیب GPT-4 هست، قویترین و پیشرفته ترین مدل ساخته شده توسط گوگله و برای حل دستورات پیچیده از اون استفاده خواهد شد. برخلاف بقیه مدلها که عمدتا روی متن تمرین داده شدن، Gemini به طور ترکیبی روی متن، عکس، ویدیو و فایلهای صوتی تمرین داده شده بنابراین درک چند حسی بالایی داره و میتونه درخواستهایی همراه با ورودی متنی، تصویری و صوتی رو با دقت بالایی همراه با قدرت استدلال بالا جواب @MrArtificialintelligence | رسانه هوش مصنوعی دانشگاه تهران
سه نسخه از Gemini برای کاربردهای مختلف به نام های Nano، Pro و Ultra ساخته شده که حجم و قابلیت آنها افزایش می یابد. گوگل از پاسخ دادن به سوالات مربوط به اندازه Pro و Ultra، تعداد پارامترهایی که شامل می شوند یا مقیاس یا منبع داده های آموزشی آنها خودداری کرد. اما کوچکترین نسخه آن، نانو، که برای اجرای محلی روی گوشی های هوشمند طراحی شده است، در واقع دو مدل است: یکی برای گوشی های کندتر با 1.8 میلیارد پارامتر و دیگری برای دستگاه های قدرتمندتر با 3.25 میلیارد پارامتر. شایعه شده که GPT-4 تا 1.7 تریلیون پارامتر و LLAMA-2 متا 70 میلیارد پارامتر دارد. گوگل ادعا می‌کند که نسخه حرفه‌ای میان‌رده Gemini برخی از مدل‌های دیگر مانند GPT3.5 OpenAI را شکست می‌دهد، اما Ultra قدرتمندتر از توانایی تمام مدل‌های هوش مصنوعی موجود فراتر می‌رود. امتیاز 90 درصد را در معیار استاندارد MMLU در صنعت کسب کرد، جایی که انتظار می‌رود یک انسان در سطح متخصص به 89.8 درصد برسد. این اولین باری است که یک هوش مصنوعی انسان ها را در این آزمایش شکست می دهد و بالاترین امتیاز برای هر مدل موجود است. این آزمون شامل طیف گسترده ای از سوالات پیچیده در موضوعاتی از جمله مغالطه های منطقی، مشکلات اخلاقی در سناریوهای روزمره، مسائل پزشکی، اقتصاد و جغرافیا است.
🔥 آکادمی آموزشی متلب آنلاین🔥 🧠مرجع معتبر کتاب های Matlab در ایران مجموعه ای از کتابهای آموزشی مناسب مبتدیان به همراه کدهای متلب: منبعی مناسب برای شروع یادگیری متلب 📌آموزش متلب و سیمولینک از مبتدی تا حرفه ای https://t.me/matlabonline/6639 📌محاسبات مهندسی و مدلسازی در متلب/ سیمولینک https://t.me/matlabonline/6609 📌ضروریات Matlab برای مهندسین و دانشجویان https://t.me/matlabonline/6377 📌اصول متلب: دوره ضروری برای مهندسین و دانشمندان https://t.me/matlabonline/6057 📌مبانی متلب https://t.me/matlabonline/6183 📌جبر خطی، معادلات انتگرال و دیفرانسیل در متلب https://t.me/matlabonline/6067 📌جبر سمبولیک و حساب دیفرانسیل و انتگرال در متلب https://t.me/matlabonline/6013 📌حساب و دیفرانسیل با متلب https://t.me/matlabonline/5962 📌راهنمای جامع Matlab برای کاربران مبتدی و حرفه ای https://t.me/matlabonline/4826 📌متلب برای محاسبات دیفرانسیل و انتگرال چندمتغیره https://t.me/matlabonline/5889 📌برنامه نویسی و محاسبات مهندسی با متلب 2019 https://t.me/matlabonline/5671 Imageprocessing.ir @Matlabonline
رقابت DeepMind با برنده مدال طلای المپیاد ریاضی | معرفی مدل AlphaGeometry شرکت Google DeepMind مدل جدیدی به نام AlphaGeometry را برای حل مسائل هندسه معرفی کرد. بنا بر ادعای DeepMind این مدل می‌تواند در حد دارنده مدال طلای المپیاد ریاضی مسائل هندسه را حل کند. AlphaGeometry در زمان استاندارد این رقابت ۲۵ سوال از ۳۰ سوال را به درستی حل کرده است. این ۳۰ مسأله از میان مسائل سال‌های ۲۰۰۰ الی ۲۰۲۲ المپیاد ریاضی انتخاب شده‌اند. AlphaGeometry با الهام از کتاب معروف Thinking, Fast and Slow از دو بخش LLM و Symbolic Engine تشکیل شده است. بخش LLM یا مدل زبانی مشابه قسمت سریع مغز عمل کرده و ایده‌های اولیه برای حل مسأله را به سرعت ارائه می‌دهد. مدل‌های بزرگ زبانی در شناسایی الگوها به خوبی عمل کرده ولی در استنتاج دارای ضعف هستند. برای پوشش این ضعف بخش Symbolic Engine وارد عمل می‌شود. بخش Symbolic Engine براساس قوانین منطقی نتایج را استنتاج کرده و ارائه می‌دهد. نتایج این مدل در مجله nature منتشر شده است. 👈 مطالعه جزئیات بیشتر #deepmind #google #AlphaGeometry 🌑 آقای هوش مصنوعی🌑 @MrArtificialintelligence
🆕 مایکروسافت اپدیت جدید ویندوز 11 رو عرضه کرده. 🔵 قابلیت Generative Erase به اپ Photos اضافه شده که میتونه به راحتی با هوش مصنوعی اشیای مزاحم رو از عکسهاتون با انتخاب کردن اونها حذف کنه. این قابلیت در حال ازمایشه و به زودی عرضه میشه. 🔵 اپ Clipchamp حالا میتونه قسمتهای بی صدای کلیپهارو حذف کنه. 🔵 با کمک قابلیت Voice Access کاربران میتونن برای کارهای مختلف دستورات صوتی مشخصی قرار بدن. مثلا با گفتن عبارت خاصی به صورت صوتی، متن موجود در کلیپ بورد رو پیست کنن، دکمه خاصی از کیبورد یا ماوس رو فشار بدن، پوشه یا اپ خاصی رو باز کنن و کارهای متنوع دیگه انجام بدن. 🔵 مایکروسافت قابلیت Link to Windows رو بهبود بخشیده و در اپدیت جدید اون کاربران میتونن از دوربین گوشیشون به عنوان وبکم در اپهای مختلف استفاده کنن. این قابلیت در حال ازمایش هست و به زودی برای کاربران عرضه میشه. این قابلیت نیاز به اندروید 9 به بالا داره. 🔵 هوش مصنوعی کوپایلت حالا میتونه تنظیمات بیشتری از ویندوز رو با دستورات شما تغییر بده و ایکون اون هم به ته تسک بار منتقل شده! 🌑 آقای هوش مصنوعی🌑 🎥رسانه هوش مصنوعی دانشگاه تهران @MrArtificialintelligence
♾ دیتاست های مهم برای پروژه های علم داده 🟢 Basic Level ┌ 🏷 Datasets ├ 🟡 Abalone ├ 🟡 User Knowledge Modeling ├ 🟡 Real Estate Valuation ├ 🟡 Wireless Indoor Localization ├ 🟡Car Evaluation ├ 🟡 Fertility └ 🟡 Qualitative Bankruptcy 🟡 Intermediate Level ┌ 🏷 Datasets ├ 🔸 Auto MPG ├ 🔸 Heart Disease ├ 🔸 Daily Demand Forecasting Orders ├ 🔸 Blood Transfusion Service Center ├ 🔸 Beijing PM2.5 ├ 🔸 Echocardiogram ├ 🔸 Concrete Compressive Strength ├ 🔸 Liver Disorders ├ 🔸Dow Jones Index ├ 🔸Energy Efficiency ├ 🔸 Glass Identification ├ 🔸 Hepatitis ├ 🔸 Wholesale Customers └ 🔸Travel Reviews ├ 🔸 Istanbul Stock Exchange ├ 🔸 Bike Sharing ├ 🔸 Occupancy Detection ├ 🔸 Census Income └ 🔸 Coronavirus 🔴 Advanced Level ┌ 🏷 Generative AI for Beginners ├ 🔸 Autism Screening Adult ├ 🔸 Default of Credit Card Clients ├ 🔸 Banknote Authentication ├ 🔸 Individual Household Electric Power ├ 🔸 Online News Popularity └ 🔸 Amazon Product Reviews 🌑 آقای هوش مصنوعی🌑 🎥رسانه هوش مصنوعی دانشگاه تهران @MrArtificialintelligence
وقتی همه ما به مدرسه می رفتیم، یاد گرفتیم که لامپ ها چگونه کار می کنند یا سیستم گوارشی یا فتوسنتز چگونه کار می کند. و شما این چیزها را به همه آموزش می دهید، نه فقط به گیاه شناسان، برقکاران یا جراحان. در فرهنگ لغت ؛ سواد به عنوان داشتن "دانش یا شایستگی" تعریف میشود. سواد هوش مصنوعی به عنوان راهی برای تعریف شایستگی هایی جدید برای دانشجویان است تا بتوانند زندگی روزمره و کاری آینده خود را با هوش مصنوعی باز طراحی کنند. این سوال که چه چیزی یک فرد را باسواد هوش مصنوعی می کند در حال تکامل است ؛ اما فقدان درک جامع شهروندی از نحوه عملکرد فناوری، رهبران کسب‌وکار و رهبران سیاست را به سمت تصمیم‌گیری بد و پرسیدن سؤالات مزخرف سوق می‌دهد. هوش مصنوعی در حال حاضر در همه جنبه های زندگی ما وجود دارد و فرصت های بزرگ و خطرات قابل توجهی را ایجاد می کند. فراگیر بودن این فناوری به این معنی است که هر انسانی تحت تأثیر قرار می گیرد - در نتیجه «سواد هوش مصنوعی» یک نیاز حیاتی برای همه افراد روی کره زمین است. دانشجویان - به‌ویژه آن‌هایی که در جوامعی با زمینه هوش مصنوعی کمتر حضور دارند - باید بدانند که با ورود به طبقه همکف این فناوری، می‌توانند از عملکرد بهتر آن اطمینان حاصل کنند.
خلاصه گفتگوی پاوول دوورو و تاکر کارلسون 🟡 پاوول سال ۱۹۸۴ توی شوروی به دنیا میاد، ۴ ساله بوده که با خانواده نقل مکان میکنن ایتالیا و در زمان فروپاشی شوروی دوباره برمیگردن. 🟡وقتی ۲۱ سالش بوده شبکه‌اجتماعی VK رو طراحی میکنه، که معروف هست به فیسبوک روسیه و میگه اون موقع فقط خودم بودم، برنامه‌نویسی میکردم، مدیر سرور بودم، پشتیبان سایت بودم و همه کارا با خودم بود. نهایتا تا سال ۲۰۱۱ این شبکه‌اجتماعی به ۱۰۰ میلیون کاربر میرسه. 🟡 با شروع تظاهرات‌ها توی روسیه مخالف‌های دولت بیشتر از VK استفاده میکنن و دولت بهشون میگه باید محتوای مخالف‌ها و کامیونیتی‌ها حذف بشن. 🟡 سال ۲۰۱۳ ماجرا پیچیده‌تر میشه و دولت روسیه اطلاعات کاربران رو هم درخواست میکنه، در نهایت بهش میگن یا سهامتو بفروش یا اینکه باید سمت دولت باشی. که خب اینجا پاول تمام سهامشو میفروشه و از مدیرعاملی هم استعفا میده. 🟡 تاکر وسط شو شروع میکنه به تیکه انداختن به مارک زاکربرگ که معروف هست به سانسور و میگه پاوول برای اینکه سانسور نکنه استعفا داد ولی زاکربرگ سانسورچی دولته. 🟡میگه ایده تلگرام توی همون روسیه شکل گرفت، فضا امنیتی بود و نمیتونستی به کسی پیام بدی و مطمئن باشی کسی اینو نمیخونه و برادرش رمزگذاری اولیه تلگرام رو طراحی میکنه، برادرش از آدم‌های سوپر اسمارت دنیای ریاضی هست، پس هسته و رمزگذاری با برادرش میشه و رابط کاربری و بقیه بخش‌هارو هم خود پاول طراحی میکنه. 🟡 میگه بعد از اینکه از روسیه خارج شدیم خیلی از جاها رفتیم ولی اکثرشون بروکراسی‌های عجیبی داشتن، بریتانیا، آلمان، سنگاپور، سانفرانسیسکو از جاهایی بودن که رفتیم، مثلا ما میخواستیم بهترین برنامه‌نویس‌هارو از سراسر دنیا استخدام کنیم ولی اینا میگفتن اینجوری نیست، شما به راحتی نمیتونید کسی که خارج از کشور هست رو استخدام کنید. باید توی روزنامه آگهی بزنید بعد اگه تا ۶ ماه کسی از داخل کشور برای اون شغل درخواست نداد بعد میتونید نیروی خودتون رو استخدام کنید. 🟡 توضیح میده که آمریکا رو هم امتحان کردن ولی فشار نهایت‌های امنیتی رو احساس کردن همون روزهای اول و گفتن اینجا جایی نیست که ما بتونیم دووم بیاریم «منظورش اینه که از روسیه میان کلا حساسیت روشون زیاده». بعد ۷ سال پیش میرن دبی و میگه مزیت امارات اینه که به راحتی هرکسی از هرجای دنیا رو میتونید استخدام کنید، سیستم مالیات کارامد هست و زیرساخت عالیه. میگه خوبی امارات هم اینه که کلا باهات کاری ندارن، حتی یه بار هم بهمون پیام ندادن یه چیزیو حذف کنیم یا ... 🟡 تاکر میگه چرا ۱۰۰ درصد سهام تلگرام مال خودته؟ در جواب میگه هدف ما مستقل بودنه و میدونیم که سرمایه‌ها وقتی میان اهدافی هم دارن. تمام سرمایه‌ام یا داخل بانکه یا بیت‌کوین هست و هیچوقت اونارو خرج نکردم، جت نخریدم، قایق نخریدم، هیچ زمینی یا خونه‌ای ندارم، علاقه دارم این سرمایه برای تلگرام هزینه بشه. https://www.youtube.com/watch?v=1Ut6RouSs0w
The best GitHub repositories for learning Python Learn Python for Data Science in 2024 👨🏻‍💻 In the latest data science report 2024 , Python is still the top programming language for data science with 56.7% . Here I have put a list of the best Python repositories for data science , which will improve your coding skills and guide you on the path to data science mastery Learn Python 3 repo A collection of Jupyter notebooks for learning Python. GitHub repo link The Algorithms repo All algorithms implemented in Python for training. GitHub repo link Awesome Python repo A list of great Python frameworks, libraries, software, and resources. GitHub repo link 100 Days of ML repo Learning algorithms and building neural networks without any programming experience. GitHub repo link Cosmic Python book repo A book on Python's functional architectural patterns for managing complexity. GitHub repo link A Byte of Python book repo If you do not learn Python programming, start with this book. GitHub repo link Python Machine Learning book repo Python Machine Learning book code repository. GitHub repo link Repo of interactive interview challenges 120+ interactive Python coding interview challenges. GitHub repo link Repo of coding problems Solutions for various coding/algorithmic problems. GitHub repo link Python Basics repo A list of 300 Python interview questions + answer sheet. GitHub repo link Python programming exercises repo 100+ challenging Python programming exercises. GitHub repo link 🌑 آقای هوش مصنوعی🌑 🎥رسانه هوش مصنوعی دانشگاه تهران @MrArtificialintelligence
نمایشگاه کار یک فرصت شبکه سازی منحصر به فرد است که بسیاری از کارفرمایان مختلف را زیر یک سقف قرار می دهد تا با کارمندان بالقوه ارتباط برقرار کنند، نمایشگاه‌های کار می‌توانند شرکت‌کنندگان را در مسیر سریع به دست آوردن شغل قرار دهند، و به شرکت‌ها کمک کنند تا جای خالی را پر کنند و مسائل مربوط به نیروی کار را در جامعه حل کنند. به یاد داشته باشید، ایجاد یک حرفه موفق در هوش مصنوعی و یادگیری ماشینی به زمان و یادگیری مداوم نیاز دارد. پس پیگیر باشید، کنجکاو بمانید و به تقویت مهارت های خود ادامه دهید. و چالش‌ها را به‌عنوان فرصت‌هایی برای رشد در نظر بگیرید ، اینجا یک تجربه عالی برای بهبود مهارت های ارتباطی، شبکه سازی و منتورینگ فردی خواهد بود. در نمایشگاه کار دانشگاه صنعتی امیرکبیر ؛ تجربیات خود از ایده تا محصول را برای یافتن مسیر شغلی موفق در عصر هوش مصنوعی در قالب یک سخنرانی ارائه خواهم داد. از مهندسی داده ؛ تحلیل گر داده ؛ دانشمند داده ؛ مهندس هوش مصنوعی و یادگیری ماشین ؛ معمار هوش مصنوعی و نقشه راه مهارت های حوزه Devops و معرفی MLops نیز سخن خواهم گفت. قطعا چارچوب یک شغل همراه مهارت نرم و دانش بوم کسب و کار ارزش فوق العاده ای خواهد داشت.
بازیگر جدیدی داریم، خلاقیتی که برخاسته از نبوغ انسان است. هوش مصنوعی می تواند با شاهکارهای ذهنی ما مطابقت داشته باشد و حتی از آن پیشی بگیرد. دنیایی را تصور کنید که در آن ماشین ها نه تنها وظایف را انجام می‌دهند بلکه، فکر می‌کنند یاد می‌گیرند و سازگار می‌شوند این یک داستان علمی تخیلی نیست، این واقعیت انقلاب صنعتی چهارم است. استفاده از هوش مصنوعی مولد در یادگیری ، چالش های بی سابقه ای را برای سیستم های آموزشی ایجاد میکند بر اساس یک چشم انداز انسان گرایانه، دستور العمل گام به گام کلیدی برای تنظیم ابزار genai، از جمله الزام حفاظت از حریم خصوصی داده ها، تعیین محدودیت سنی برای مکالمات مستقل با سیستم عامل های genai، پیشنهاد میشود همانطور که در این مقطع حرکت می‌کنیم، با سوالاتی رو برو می‌شویم که جوهر سلطه ما را بررسی می‌کند همانطور که ما حیوانات را برای نیازهای خود اهلی کرده ایم، آیا هوش مصنوعی می‌تواند سرنوشت ما را رقم بزند؟ آیا زمانی که هوش مصنوعی پیشتاز است، می‌توانیم سوژه خلقت خود شویم! ظهور هوش مصنوعی ما را ترغیب می‌کند تا محدودیت های تخیل خود را کشف کنیم، مرزهای قدرت را مورد بررسی قرار دهیم و به این فکر کنیم که آیا خلقت ما می تواند روزی ما را به روش هایی تحت الشعاع قرار دهد که هرگز تصور نمی‌کردیم؟ از طرفی، مدل های هوش مصنوعی خطوط بین صنایع را محو میکنند ، استراتژی ها کمتر به تخصص و تمایز تخصصی مبتنی بر هزینه ، کیفیت و نام تجاری متکی هستند و بیشتر بر موقعیت شبکه کسب و کار ، داده های منحصر به فرد و استقرار تحلیل های پیچیده متکی خواهند بود هوش مصنوعی چه مورد ستایش قرار گیرند، چه تقبیح، در کشورهای صنعتی بطور فزاینده ای بخشی از چشم انداز آموزشی هستند این نکات، هیجان انگیز، مبهم و کمی گیج کننده است. بخشی از سخنرانی چشم انداز صنعت و دانشگاه در عصر هوش مصنوعی مسلم تقی زاده
همون‌طور که می‌دونید، به‌تازگی مدل‌های چندوجهی (Multimodal Models) و به‌طور خاص مدل‌های بینایی-زبان (Vision-Language Models) بسیار محبوب شده‌اند. این مدل‌ها معمولا به‌طور همزمان یک تصویر و یک نوشتار را در ورودی دریافت می‌کنند. خروجی این مدل‌ها ممکن‌ست تنها نوشتار باشد، تنها تصویر باشد و یا ترکیبی از هر دو. از مدل‌های تجاری مثل GPT-4o و Gemini 1.5 Pro که بگذریم، بسیاری از افراد مایل‌اند از مدل‌های اوپن-سورس و رایگان استفاده کنند. به‌تازگی شاهد انتشار مدل PaliGemma توسط گوگل بودیم که در عین سادگی، عمل‌کرد فوق‌العاده‌ای دارد. با این حال، این مدل ۸ میلیارد پارامتر دارد و ممکن‌ست برای اجرا روی دستگاه‌های ضعیف مناسب نباشد. گزینه‌ی دیگر Moondream2 است که با اینکه دقت PaliGemma را ندارد اما به‌نسبت سایز بسیار کوچک آن (۱/۸۶ میلیارد پارامتر) دقت قابل قبولی دارد و حتی در آزمون VQAv2 از GPT-4o هم به‌تر عمل می‌کند. لینک آموزشی زیر، این مدل را برای شمارش مبلغ پول فاین‌تیون می‌کند. https://blog.roboflow.com/finetuning-moondream2/ 🌑 آقای هوش مصنوعی🌑 🎥رسانه هوش مصنوعی دانشگاه تهران @MrArtificialintelligence
مدل YOLOv10 توسط THU-MIG منتشر شد! این مدل در ۶ سایز معرفی شده‌ست: نانو (n): ۲/۳ میلیون پارامتر کوچک (s): ۷/۲ میلیون پارامتر متوسط (m): ۱۵/۴ میلیون پارامتر بزرگ (b): ۱۹/۱ میلیون پارامتر بزرگ (l): ۲۴/۴ میلیون پارامتر خیلی بزرگ (x): ۲۹/۵ میلیون پارامتر این مدل دقت (mAP) به‌تری روی مجموعه‌داده‌ی COCO داشته و به‌خاطر عدم استفاده از NMS به مراتب سریع‌ترست. طوری که کوچک‌ترین سایز، هر تصویر را در ۱ میلی‌ثانیه پردازش می‌کند (1000fps) و به راحتی می‌توان گفت به‌ترین مدل برای پردازش بلادرنگ ویدئو‌ها روی دستگاه‌های لبه (edge devices) است. کد این مدل روی فریم‌ورک Ultralytics زده شده و بنابراین به کمک پکیج ultralytics به‌سادگی قابل استفاده است. نکته‌ی قابل توجه این که، این مدل تحت مجوز GNU GPL v3.0 منتشر شده، یعنی فقط در پروژه‌های اوپن-سورس قابل استفاده‌ست و نمی‌توان از آن در محصولات close-source استفاده کرد. مقاله https://arxiv.org/pdf/2405.14458 گیت‌هاب https://github.com/THU-MIG/yolov10/ فاین‌تیون کردن مدل https://blog.roboflow.com/yolov10-how-to-train/ دمو https://huggingface.co/spaces/kadirnar/Yolov10
پژوهشگران پردازشگر زیستی‌ای با ۱۶ ارگانوئید مغز ساخته‌اند که ۱ میلیون برابر مصرف انرژی کمتری نسبت به یک تراشه دیجیتال دارد. یک استارتاپ زیست-محاسباتی سوییسی به نام FinalSpark اولین سرویس آنلاین برای دسترسی از راه دور به ارگانوئیدهای مغز در جهان رو راه‌اندازی کردن. در حال حاضر این پلتفرم به‌نام Neuroplatform فعالیت می‌کنه و اجازه دسترسی به نورون‌های بیولوژیکی در شرایط آزمایشگاهی رو میده. این زیست‌پردازنده‌ها یک میلیون‌بار مصرف انرژی کمتری نسبت به پردازنده‌های دیجیتال کلاسیک دارن و به دلیل مصرف انرژی کمتر اثرات‌ زیست-محیطی محاسبات رو کاهش می‌دن. این استارتاپ در یک مقاله تحقیقاتی که اخیرا منتشر کرده ادعا می‌کنه با استفاده از این زیست‌پردازنده‌ها می‌شه هزینه آموزش LLMها رو به شدت پایین آورد(برای آموزش یک مدل شبیه GPT-3 نیاز به انرژی ۱۰گیگاوات‌ساعتیه در صورتی که این انرژی حدود ۶۰۰۰بار بیشتر از مصرف انرژی یک شهروند اروپایی برای یک سال کامله). درحال حاضر این اجازه دسترسی به ۴ ارگانوئید رو با پرداخت ۵۰۰دلار ماهانه برای پروژه‌های آموزشی میده. TomsHardware 🌑 آقای هوش مصنوعی🌑 @MrArtificialintelligence
پژوهش‌گران گوگل و استنفورد، در محیطی الهام‌گرفته‌شده از بازی The Sims، تعداد ۲۵ عامل هوش مصنوعی (AI Agent) قدرت‌گرفته از GPT-4 را کنار هم در محیط قرار داده‌اند تا رفتارهای اجتماعی آن‌ها را مطالعه کنند. محیط شبیه‌سازی‌شده که SmallVille نام دارد، شامل تعدادی خانه، سوپرمارکت، داروخانه، کافه، پارک‌ و کالج‌ست. این ۲۵ عامل‌، اهداف و شغل‌های مشخص مانند نقاش یا نویسنده دارند و رفتارهای فردی و اجتماعی شبیه به انسان‌ها از خود نشان می‌دهند. صبح‌ها بیدار می‌شوند، صبحانه آماده می‌کنند، سر کار می‌روند و با یک‌دیگر به مکالمه می‌پردازند. آن‌ها خاطرات روزهای قبل را به یاد دارند و برای روزهای بعد برنامه‌ریزی می‌کنند. پژوهش‌گران متوجه رفتارهای اجتماعی جالبی مثل پخش‌شدن اطلاعات در شهر، به‌خاطرآوردن تعاملات قبلی و صحبت در مورد آن‌ها‌ در دیدارهای بعدی، و حتی برنامه‌ریزی و شرکت در جشن ولنتاین بودند. دمو https://reverie.herokuapp.com/arXiv_Demo/ بلاگ‌پست: https://arstechnica.com/information-technology/2023/04/surprising-things-happen-when-you-put-25-ai-agents-together-in-an-rpg-town/ مقاله: https://arxiv.org/pdf/2304.03442
Data Scientist Roadmap | |-- 1. Basic Foundations |   |-- a. Mathematics |   |   |-- i. Linear Algebra |   |   |-- ii. Calculus |   |   |-- iii. Probability |   |   -- iv. Statistics |   | |   |-- b. Programming |   |   |-- i. Python |   |   |   |-- 1. Syntax and Basic Concepts |   |   |   |-- 2. Data Structures |   |   |   |-- 3. Control Structures |   |   |   |-- 4. Functions |   |   |   -- 5. Object-Oriented Programming |   |   | |   |   -- ii. R (optional, based on preference) |   | |   |-- c. Data Manipulation |   |   |-- i. Numpy (Python) |   |   |-- ii. Pandas (Python) |   |   -- iii. Dplyr (R) |   | |   -- d. Data Visualization |       |-- i. Matplotlib (Python) |       |-- ii. Seaborn (Python) |       -- iii. ggplot2 (R) | |-- 2. Data Exploration and Preprocessing |   |-- a. Exploratory Data Analysis (EDA) |   |-- b. Feature Engineering |   |-- c. Data Cleaning |   |-- d. Handling Missing Data |   -- e. Data Scaling and Normalization | |-- 3. Machine Learning |   |-- a. Supervised Learning |   |   |-- i. Regression |   |   |   |-- 1. Linear Regression |   |   |   -- 2. Polynomial Regression |   |   | |   |   -- ii. Classification |   |       |-- 1. Logistic Regression |   |       |-- 2. k-Nearest Neighbors |   |       |-- 3. Support Vector Machines |   |       |-- 4. Decision Trees |   |       -- 5. Random Forest |   | |   |-- b. Unsupervised Learning |   |   |-- i. Clustering |   |   |   |-- 1. K-means |   |   |   |-- 2. DBSCAN |   |   |   -- 3. Hierarchical Clustering |   |   | |   |   -- ii. Dimensionality Reduction |   |       |-- 1. Principal Component Analysis (PCA) |   |       |-- 2. t-Distributed Stochastic Neighbor Embedding (t-SNE) |   |       -- 3. Linear Discriminant Analysis (LDA) |   | |   |-- c. Reinforcement Learning |   |-- d. Model Evaluation and Validation |   |   |-- i. Cross-validation |   |   |-- ii. Hyperparameter Tuning |   |   -- iii. Model Selection |   | |   -- e. ML Libraries and Frameworks |       |-- i. Scikit-learn (Python) |       |-- ii. TensorFlow (Python) |       |-- iii. Keras (Python) |       -- iv. PyTorch (Python) | |-- 4. Deep Learning |   |-- a. Neural Networks |   |   |-- i. Perceptron |   |   -- ii. Multi-Layer Perceptron |   | |   |-- b. Convolutional Neural Networks (CNNs) |   |   |-- i. Image Classification |   |   |-- ii. Object Detection |   |   -- iii. Image Segmentation |   | |   |-- c. Recurrent Neural Networks (RNNs) |   |   |-- i. Sequence-to-Sequence Models |   |   |-- ii. Text Classification |   |   -- iii. Sentiment Analysis |   | |   |-- d. Long Short-Term Memory (LSTM) and Gated Recurrent Units (GRU) |   |   |-- i. Time Series Forecasting |   |   -- ii. Language Modeling |   | |   -- e. Generative Adversarial Networks (GANs) |       |-- i. Image Synthesis |       |-- ii. Style Transfer |       -- iii. Data Augmentation | |-- 5. Big Data Technologies |   |-- a. Hadoop |   |   |-- i. HDFS |   |   -- ii. MapReduce |   | |   |-- b. Spark |   |   |-- i. RDDs |   |   |-- ii. DataFrames |   |   -- iii. MLlib |   | |   -- c. NoSQL Databases |       |-- i. MongoDB |       |-- ii. Cassandra |       |-- iii. HBase |       -- iv. Couchbase | |-- 6. Data Visualization and Reporting |   |-- a. Dashboarding Tools |   |   |-- i. Tableau |   |   |-- ii. Power BI |   |   |-- iii. Dash (Python) |   |   -- iv. Shiny (R) |   | |   |-- b. Storytelling with Data |   -- c. Effective Communication | |-- 7. Domain Knowledge and Soft Skills |   |-- a. Industry-specific Knowledge |   |-- b. Problem-solving |   |-- c. Communication Skills |   |-- d. Time Management |   -- e. Teamwork | -- 8. Staying Updated and Continuous Learning     |-- a. Online Courses     |-- b. Books and Research Papers     |-- c. Blogs and Podcasts     |-- d. Conferences and Workshops     `-- e. Networking and Community Engagement #نقشه_راه_هوش_مصنوعی 🌑 آقای هوش مصنوعی🌑 🎥رسانه هوش مصنوعی دانشگاه تهران @MrArtificialintelligence
مدل بنیادین Florence-2 که یک مدل چندوجهی بینایی-زبان بسیار سبک و اوپن-سورس است، توسط Microsoft معرفی شد. معماری ساده‌ی این مدل تغییر خاصی نسبت به نسخه‌ی قبل نکرده و متشکل از یک DaViT به عنوان کدگذار بینایی، یک BERT به عنوان کدگذار نوشتار و یک کدگشای مبتنی بر ترنسفورمرست. این مدل قادر به انجام بیش از ۱۰ تسک مختلف در زمینه‌ی بینایی رایانه از جمله image captioning و object detection و grounding و segmentation و OCR است. این مدل در دو نسخه‌ی base (۲۳۰ میلیون پارامتر) و large (۷۷۰ میلیون پارامتر) منتشر شده که هر دو مناسب اجرا روی دستگاه‌های لبه و موبایل‌ها هستند. قابلیت بالای این مدل به خاطر مجموعه‌داده‌ی آموزشی حجیم آن به نام FLD-5B شامل ۱۲۶ میلیون تصویر و ۵/۴ میلیارد انوتیشن‌ست. بلاگ‌پست معرفی: https://blog.roboflow.com/florence-2/ مقاله: https://arxiv.org/pdf/2311.06242 دمو: https://huggingface.co/spaces/gokaygokay/Florence-2 نوت‌بوک: https://colab.research.google.com/?ref=blog.roboflow.com#fileId=https%3A//huggingface.co/microsoft/Florence-2-large/blob/main/sample_inference.ipynb
🌟 MiraData: Large, long-duration video dataset with structured annotations. When training generative models, the training dataset plays an important role in the quality of reference of ready-made models. One of the good sources can be MiraData from Tencent - a ready-made dataset with a total video duration of 16 thousand hours, designed for training models for generating text in videos. It includes long videos (average 72.1 seconds) with high motion intensity and detailed structured annotations (average 318 words per video). To assess the quality of the dataset, a system of MiraBench benchmarks was even specially created, consisting of 17 metrics that evaluate temporal consistency, movement in the frame, video quality, and other parameters. According to their results, MiroData outperforms other well-known datasets available in open sources, which mainly consist of short videos with floating quality and short descriptions. 🟡 Project page 🟡 Arxiv 🤗 Hugging Face 🖥 GitHub #Text2Video #Dataset #ML
فناوری‌های جدید هوش مصنوعی، محصول هوش ما - خلاقیت - تجربیات - داده‌های ما - و تاریخ ما هستند. شاید آنها کمتر تصنعی باشند و بیشتر گواهی بر ظرفیت فکری جمعی ما باشند. انسان های اولیه را در نظر بگیرید یک منظره جذاب طبیعی که توسط رعد و برق مشتعل شد منجر به خلق آتش توسط اجداد ما شد ولی هیچوقت " آتش مصنوعی" برچسب نخورد. چون آتش فارغ از منبع آن آتش است. شاید زمان آن رسیده است که درک خود را اصلاح کنیم و تشخیص دهیم که همه انواع هوش اساساً "واقعی" هستند - در انسان، طبیعت یا سیستم ها. به جای طبقه‌بندی هوش بر اساس منشأ آن، آیا اصول حاکم بر رفتار هوشمند در موجودات و الگوریتم‌ها را کشف می‌شود تحول دیجیتال قبل از "دیجیتال" فقط تحول است، تحول اصلاح عادات فعلی و مدل ذهنی است. تحول دیجیتال ناشی از تغییر نیازها و انتظارات مصرف کنندگان است، بنابراین تحول دیجیتال یک سفر است نه یک مقصد ، یک انقلاب بزرگ با تکامل خرد . سومین کنفرانس ملی تحول دیجیتالی #تحول_دیجتال #هوش_مصنوعی #دانشگاه_خاتم #digital_transformation #artificialintelligence 🌑 آقای هوش مصنوعی🌑 🎥رسانه هوش مصنوعی دانشگاه تهران @MrArtificialintelligence
و بالاخره بعد از حواشی و اخبار زیاد، متا امروز از مدل اپن‌سورس Llama 3.1 در سه وزن ۸، ۷۰ و ۴۰۵ میلیارد پارامتری رونمایی کرد. هر سه این مدل‌ها نسبت به مدل‌های هم‌وزن‌شون عملکرد بهتری رو به نمایش می‌ذارن و متا بزرگ‌ترین و قوی‌ترین مدل اپن‌سورس فعلی رو تا به امروز معرفی کرده. مدل بسیار بزرگ ۴۰۵Bی متا روی بیش از ۱۵تریلیون توکن و با ۱۶هزار گرافیک NVIDIA H100 آموزش داده شده. این مدل عملکرد بسیار نزدیک و بعضا بهتری نسبت به مدل‌های GPT-4، GPT-4o ،Gemini Ultra و Claude 3.5 Sonset در بعضی از موارد داشته. مارک زاکربرگ، مدیرعامل متا، گفته ما معتقدیم معرفی مدل‌های اپن‌سورس این چنینی موجب می‌شه قدرت این فناوری در دستان آدم‌ها و شرکت‌های معدودی متمرکز نشه و با سرعت و امنیت بیشتری پیشرفت پیدا کنه. درحال حاضر هر سه روی ollama و hugginface در دسترسه و شما با دستور ollama run llama3.1 می‌تونید هر کدوم از مدل‌هایی که میخواید رو اجرا کنید. اگر هم به آیپی آمریکا دسترسی دارید قوی‌ترین مدل در سایت meta.ai در دسترسه. عرضه چنین مدلی باعث پیشرفت بیش‌ازپیش مدل‌های اپن‌سورس دیگه‌ای میشه که از مدل‌ پایه llama استفاده می‌کنن.
🗂 A collection of the best free courses 📝 For data science, data engineering, MLOps, ML and GenAI 💠 data science 1️⃣ Python for Everybody Course : A great course for beginners to learn Python. 2️⃣ Data analysis with Python course : This course introduces you to data analysis techniques with Python. 3️⃣ Databases & SQL course : You will learn how to manage databases with SQL. 4️⃣ Intro to Inferential Statistics course : This course teaches you how to make predictions by learning statistics. 5️⃣ ML Zoomcamp course : a practical and practical course for learning machine learning. 🔺 Data engineering 1️⃣ Data Engineering Course : Learn the basics of data engineering. 2️⃣ Data Engineer Learning Path course : a comprehensive road map to become a data engineer. 3️⃣ Database Engineer course : get a specialized degree in database engineering. 4️⃣ Big Data Specialization Course : Get to know big data technologies and their applications. 5️⃣ The Data Eng Zoomcamp course : a practical course to learn data engineering. 🔺 machine learning 1️⃣ Intro to ML course : an introductory and self-paced course to start machine learning. 2️⃣ ML for Everybody course : A simple approach to learning machine learning concepts. 3️⃣ ML in Python course : focus on machine learning with Python and Scikit-Learn. 4️⃣ ML Crash Course : A quick but comprehensive introduction to machine learning. 5️⃣ CS229 : ML : An advanced course for those who want to deepen their knowledge. 🔻 Machine Learning Operations (MLOps) 1️⃣ Python Essentials for MLOps course : an essential course for MLOps enthusiasts.. 2️⃣ MLOps for Beginners Course : A great starting point for MLOps newbies. 3️⃣ ML Engineering Course : A set of courses for deep entry into the world of MLOps. 4️⃣ MLOps Specialization Course : Focus on operational aspects of machine learning. 5️⃣ Made With ML course : a special course that combines machine learning with practical applications. 🔹 Generative artificial intelligence 1️⃣ Generative AI for Beginners course : building generative artificial intelligence apps. 2️⃣ Generative AI Fundamentals course : getting to know the basic principles of generative artificial intelligence. 3️⃣ Intro to Gen AI course : from learning large language models to understanding the principles of responsible artificial intelligence. 4️⃣ Generative AI with LLMs course : Learn business applications of artificial intelligence with AWS experts in a practical way. 5️⃣ Generative AI for Everyone course : This course tells you what generative artificial intelligence is, how it works, and what uses and limitations it has. ☕️ #MachineLearning #Python #COURSES #GenerativeAI #LLM 🌑 آقای هوش مصنوعی🌑 🎥رسانه هوش مصنوعی دانشگاه تهران @MrArtificialintelligence
📢📢#فرصت_همکاری ❇️شرکت کیمیاگران انرژی از شرکت های فناور مستقر در پارک علم و فناوری دانشگاه صنعتی شریف از خانم ها و آقایون علاقه مند به حوزه های برق و انرژی دعوت به همکاری پاره وقت و تمام وقت می نماید 💡عناوین شغلی: ✅#طراحی و ساخت برد (در حوزه انرژی، بهینه سازی، مهندسی معکوس، تحلیل داده های انرژی، هوش مصنوعی، سیستم خورشیدی، ساخت تجهیزات برقی وانرژی، طراحی برد، اینترنت اشیا) ✅#کارشناس_فنی_و_اجرایی (ممیزی انرژی، ساخت تابلو برق، اجرای نیروگاه خورشیدی، ارزیاب کیفیت توان الکتریکی) 🔶شرایط لازم برای همکاری: 🔷تحصیلات: کارشناسی یا کارشناسی ارشد 🔷محدودیت سنی: ۲۳ الی ۳۶ 🔷 جنسیت: آقا و خانم 🔷 رشته های مورد نیاز: برق،انرژی،مکانیک، هوش مصنوعی، معماری 🏷️ شرایط کاری 📌ساعت کاری: تمام وقت و پاره وقت 📌حقوق: توافقی 📌بیمه: دارد 📌امکان همکاری پروژه ای: دارد امکان همکاری ساعتی: دارد ✨حوزه های فعالیت کیمیاگران انرژی 🔻مدیریت و ممیزی انرژی 🔻هوش مصنوعی و تحلیل داده 🔻نیروگاه های خورشیدی 🔻کیفیت توان الکتریکی 🔻روشنایی فوق کم مصرف 🔻مانیتورینگ انرژی 🔻استقرار استاندار مدیریت انرژی ایزو ۵۰۰۰۱ 🏢 آدرس محل کار: تهران، طرشت شمالی، بلوارتیموری، پژوهشکده انرژی دانشگاه صنعتی شریف ❇️متقاضیان می‌توانند رزومه خود را از طریق ایمیل،  تلگرام یا واتساب به آدرس زیر ارسال نمایند و از تماس تلفنی خودداری نمایید: 📞 ۰۹۳۵۲۵۷۱۹۹۵ 🔷 [email protected] 📢I'dTelegram :@Fanavaran99
در روزهای اولیه، تجزیه و تحلیل بازاریابی عمدتاً در مورد جمع آوری و تجزیه و تحلیل داده های اساسی مانند ارقام فروش، جمعیت شناسی مشتری و روند بازار بود. این داده ها برای ایجاد استراتژی های بازاریابی گسترده و درک رفتار مصرف کننده در سطح کلان استفاده شد. با این حال، بینش های به دست آمده اغلب گذشته نگر بودند و فاقد عمق لازم برای تصمیم گیری دقیق بودند. ظهور هوش مصنوعی، تجزیه و تحلیل بازاریابی را به سطح بالاتری رساند. الگوریتم های هوش مصنوعی می توانند حجم وسیعی از داده ها را تجزیه و تحلیل کنند، الگوها را شناسایی کنند و با دقت قابل توجهی پیش بینی کنند. این منجر به ظهور تحلیل‌های پیش‌بینی‌کننده شده است، جایی که کسب‌وکارها می‌توانند نیازهای مشتری و روند بازار را پیش‌بینی کنند و تصمیم‌گیری فعالانه را ممکن می‌سازد. هوش مصنوعی همچنین شخصی سازی بیش از حد را به واقعیت تبدیل کرده است. با تجزیه و تحلیل رفتار، ترجیحات و تعاملات فردی مشتری، هوش مصنوعی می‌تواند به کسب‌وکارها کمک کند تا تجربیات شخصی‌سازی شده ارائه دهند و تعامل و وفاداری مشتری را افزایش دهند. یک مطالعه اخیر توسط McKinsey & Company نشان داد که شرکت هایی که از بازاریابی مبتنی بر داده استقبال می کنند، 23 برابر بیشتر احتمال دارد مشتریان را به دست آورند و 6 برابر بیشتر احتمال دارد آنها را حفظ کنند. این امر بر نقش حیاتی علم داده در موفقیت بازاریابی مدرن تاکید می کند.
هوش مصنوعی به‌عنوان یکی از پیشرفته‌ترین دستاوردهای علمی بشر، به‌طور فزاینده‌ای در حوزه سلامت و علوم پزشکی نقش‌آفرین شده است. با توانایی پردازش حجم عظیمی از داده‌ها و شناسایی الگوهای پیچیده، هوش مصنوعی به تشخیص دقیق‌تر بیماری‌ها و ارائه روش‌های درمانی شخصی‌سازی‌شده کمک شایانی کرده است. اما این تحول تنها یک پیشرفت فناورانه نیست؛ بلکه سؤالات عمیقی را در باب ماهیت انسان، اخلاق و خودمختاری به‌وجود آورده است. آیا می‌توان اعتماد کامل به تصمیمات هوش مصنوعی در تشخیص بیماری‌ها داشت؟ در حالی که هوش مصنوعی می‌تواند از خطاهای انسانی بکاهد، آیا به این معناست که تصمیمات پزشکی از انسان‌ها به ماشین‌ها واگذار شود؟ ارتباط میان انسان و ماشین در این زمینه یک تعامل پیچیده است. پزشکان به‌عنوان متولیان اصلی سلامت، همچنان نقش کلیدی در ارزیابی داده‌ها و تصمیم‌گیری‌های نهایی دارند. بااین‌حال، به‌کارگیری هوش مصنوعی پرسشی را مطرح می‌کند: تا چه حد می‌توان به ماشین‌ها اجازه داد تا در موضوعاتی همچون حیات و سلامت دخالت کنند؟ این سؤال نه تنها بعد تکنیکی دارد، بلکه چالشی فلسفی درباره مرزهای اخلاق، مسئولیت و اعتماد به فناوری است. هوش مصنوعی، به‌رغم کارایی بی‌نظیرش، یادآوری می‌کند که فناوری به خودی خود بدون اخلاق و قضاوت انسانی نمی‌تواند جایگزین مسئولیت‌های ما شود.
هوش مصنوعی در مدیریت شهری به مثابه مغز یک شهر هوشمند عمل می‌کند، جایی که داده‌ها به مثابه حواس عمل می‌کنند و الگوریتم‌ها به تصمیمات هوشمند و کارآمد منجر می‌شوند. این فناوری می‌تواند با تحلیل حجم عظیمی از اطلاعات از منابع مختلف، همچون ترافیک، آلودگی، و نیازهای شهروندان، بهینه‌ترین راه‌حل‌ها را برای چالش‌های پیچیده شهری ارائه دهد. از بهبود مدیریت ترافیک و کاهش مصرف انرژی گرفته تا ارتقاء خدمات عمومی و افزایش ایمنی، هوش مصنوعی می‌تواند با کاهش هزینه‌ها و افزایش کیفیت زندگی، شهرها را به محیط‌هایی پایدار و پاسخگو تبدیل کند. در واقع، با توانمندسازی مدیران شهری برای اتخاذ تصمیمات دقیق‌تر و پیش‌بینی مشکلات آینده، هوش مصنوعی نه‌تنها کیفیت مدیریت شهری را بهبود می‌بخشد، بلکه زمینه‌ساز توسعه شهرهای هوشمند و پایدار برای نسل‌های آینده نیز می‌شود. هوش مصنوعی در مدیریت شهری نه تنها به‌عنوان ابزاری فناورانه، بلکه به‌مثابه یک تحول پارادایمی در فهم و تعامل ما با محیط شهری است. این فناوری با تحلیل داده‌های کلان از منابع متنوعی چون حمل‌ونقل، انرژی، زیرساخت‌ها و رفتارهای اجتماعی، توانایی درک عمیق‌تری از پویایی‌های پیچیده و چندبعدی شهرها را به ارمغان می‌آورد. در این زمینه، هوش مصنوعی قادر است فراتر از بهینه‌سازی عملیاتی، به پیش‌بینی الگوهای تغییرات اجتماعی و محیطی بپردازد و سیاست‌گذاری‌ها را از سطح واکنشی به سطح پیش‌کنشی ارتقا دهد. این تحول می‌تواند مفهوم «شهر» را از یک موجودیت ایستا و مکانیکی به یک ارگانیسم پویا و یادگیرنده تغییر دهد؛ جایی که داده‌ها به منزله حافظه جمعی و الگوریتم‌ها به مثابه خرد جمعی عمل می‌کنند. در این چارچوب، هوش مصنوعی نه تنها بهینه‌ساز منابع، بلکه به‌عنوان ابزاری برای درک بهتر و عمیق‌تر از حیات شهری و توسعه پایدار آن مطرح می‌شود.
طبق گزارش “Oxford insight ” در شاخص آمادگی هوش مصنوعی دولت‌ها در سال ۲۰۲۳، ایران در حوزه‌ی هوش مصنوعی هنوز با چالش‌های ساختاری متعددی روبرو است. در این گزارش، کشورها بر اساس سه رکن اصلی: دولت، بخش فناوری و داده و زیرساخت ارزیابی می‌شوند. در بخش دولت، نبود یک استراتژی ملی جامع هوش مصنوعی یکی از دلایل اصلی عقب‌ماندگی ایران محسوب می‌شود. با توجه به رقابت جهانی در این زمینه، فقدان سیاست‌های یکپارچه منجر به عدم بهره‌برداری مؤثر از ظرفیت‌های هوش مصنوعی و همچنین ضعف در تنظیم مقررات و مدیریت ریسک‌های احتمالی شده است. در حوزه داده و زیرساخت، ایران با مشکلاتی از جمله شکاف دیجیتالی و عدم دسترسی به زیرساخت‌های پیشرفته مواجه است که مانع از توسعه و پیاده‌سازی مؤثر سیستم‌های هوش مصنوعی می‌شود. بدون سرمایه‌گذاری در این زمینه، کشور در معرض وابستگی به فناوری‌های خارجی قرار می‌گیرد، که این موضوع می‌تواند ریسک‌های امنیتی و زبانی را افزایش دهد. با این حال، گزارش نشان می‌دهد که کشورهایی مانند ایران می‌توانند با توسعه زیرساخت‌ها، آموزش نیروی کار و تدوین استراتژی‌های مبتنی بر استفاده مسئولانه از هوش مصنوعی، از مزایای آن برای رشد اقتصادی و اجتماعی بهره‌برداری کنند .
با اینکه فکر میکنید 5G آخرین نسل ارتباط تلفن همراه هست ولی داریم ازش عبور کنیم و 5.5G یا همون 5G Advanced داره به شبکه‌های مخابراتی اضافه میشه. اول اینکه میشه باهاش به سرعت اینترنت ۱۰ گیگابیت رسید، اتفاقی که الان با 5G در حدود میانگین ۱ تا ۲ گیگابیت هست. یا اینکه تکنولوژی‌هایی داره که کمک میکنه تو جاهای شلوغ مثل استادیوم‌ها، آنتن‌های بیشتری به دکل‌ها اضافه کنن تا ظرفیت اونجا بدون مشکل زیاد بشه. حتی برای الگوی ترافیک و بهبود قدرت سیگنال ممکنه از AI هم استفاده کنن. ویژگی بعدیش هم کاهش مصرف انرژی گوشی هست وقتی از اون استفاده نمیکنیم، (منظور حالت آماده به کار هست) حالا یکی از مدیران تی-موبایل آمریکا تایید کرده که میخوان شبکه 5G Advanced رو تا چند ماه دیگه راه‌اندازی کنن. از طرفی خود گوشی هم باید پشتیبانی کنه و خبر خوب اینه‌که قبلا مودم‌هایی با این قابلیت تولید شدن و بعضی از گوشی‌ها این ویژگی رو دارن. هرچند با اعلام اولین دکل‌هایی که این ویژگی‌رو دارن احتمالا تمام گوشی‌هایی که بعدا معرفی میشن روی این کلمه 5G Advanced خیلی تبلیغ کنن. #5G 🌑 آقای هوش مصنوعی🌑 🎥رسانه هوش مصنوعی دانشگاه تهران @MrArtificialintelligence
ادغام هوش مصنوعی در استراتژی‌های تبلیغاتی، انقلابی در نحوه‌ تحلیل و بهینه‌سازی کمپین‌های بازاریابی ایجاد کرده است. از طریق الگوریتم‌های یادگیری ماشین و پردازش زبان طبیعی، هوش مصنوعی قادر است داده‌های کاربران را در مقیاس وسیع جمع‌آوری و تحلیل کند تا الگوهای رفتاری و ترجیحات مخاطبان را به‌صورت دقیق شناسایی کند. این تحلیل‌های پیشرفته، به بازاریابان اجازه می‌دهد تا محتوای تبلیغاتی را با دقت بسیار بالا شخصی‌سازی کنند و تبلیغات هدفمندی ارائه دهند که احتمال کلیک و تبدیل به مشتری در آن بیشتر است. علاوه بر شخصی‌سازی، هوش مصنوعی می‌تواند در بهینه‌سازی زمان و محل انتشار تبلیغات مؤثر باشد. به‌عنوان مثال، الگوریتم‌های پیش‌بینی مبتنی بر هوش مصنوعی می‌توانند زمان‌هایی که کاربران بیشترین تعامل را دارند شناسایی کنند، و تبلیغات در این زمان‌ها منتشر شود. همچنین، سیستم‌های توصیه‌گر هوشمند، بر اساس سوابق جستجو و خرید کاربران، پیشنهادات متناسب‌تری را ارائه می‌دهند که موجب افزایش نرخ بازگشت سرمایه (ROI) می‌شود. در نتیجه، هوش مصنوعی نه تنها باعث کارآمدتر شدن فرایندهای تبلیغاتی می‌شود، بلکه تجربه کاربری را بهبود می‌بخشد و وفاداری مشتریان را به دلیل هم‌سویی تبلیغات با نیازها و علایق آن‌ها تقویت می‌کند.
Complete Data Science Roadmap 👇👇 1. Introduction to Data Science - Overview and Importance - Data Science Lifecycle - Key Roles (Data Scientist, Analyst, Engineer) 2. Mathematics and Statistics - Probability and Distributions - Descriptive/Inferential Statistics - Hypothesis Testing - Linear Algebra and Calculus Basics 3. Programming Languages - Python: NumPy, Pandas, Matplotlib - R: dplyr, ggplot2 - SQL: Joins, Aggregations, CRUD 4. Data Collection & Preprocessing - Data Cleaning and Wrangling - Handling Missing Data - Feature Engineering 5. Exploratory Data Analysis (EDA) - Summary Statistics - Data Visualization (Histograms, Box Plots, Correlation) 6. Machine Learning - Supervised (Linear/Logistic Regression, Decision Trees) - Unsupervised (K-Means, PCA) - Model Selection and Cross-Validation 7. Advanced Machine Learning - SVM, Random Forests, Boosting - Neural Networks Basics 8. Deep Learning - Neural Networks Architecture - CNNs for Image Data - RNNs for Sequential Data 9. Natural Language Processing (NLP) - Text Preprocessing - Sentiment Analysis - Word Embeddings (Word2Vec) 10. Data Visualization & Storytelling - Dashboards (Tableau, Power BI) - Telling Stories with Data 11. Model Deployment - Deploy with Flask or Django - Monitoring and Retraining Models 12. Big Data & Cloud - Introduction to Hadoop, Spark - Cloud Tools (AWS, Google Cloud) 13. Data Engineering Basics - ETL Pipelines - Data Warehousing (Redshift, BigQuery) 14. Ethics in Data Science - Ethical Data Usage - Bias in AI Models 15. Tools for Data Science - Jupyter, Git, Docker 16. Career Path & Certifications - Building a Data Science Portfolio   #هوش_مصنوعی  🌑 آقای هوش مصنوعی🌑 🎥رسانه هوش مصنوعی دانشگاه تهران @MrArtificialintelligence
📣 دانشکده مدیریت صنعتی و فناوری دانشکدگان مدیریت دانشگاه تهران با همکاری هدلاین برگزار می‌کند: 🟢 رویداد هدلاین؛ رشد کسب‌وکارها در عصر دیجیتال 📈 این رویداد با حضور بیش از 500 نفر از صاحبان کسب‌وکار، مدیران عامل، مدیران ارشد و صاحبنظران توسعه و رشد کسب وکارهای ایرانی برگزار می شود. در این رویداد قرار است روی نقش و تاثیر همه دپارتمان‌های یک کسب‌وکار و اهمیت همکاری و یکپارچگی آن‌ها برای رشد با توجه به پیچیدگی‌ها و عدم اطمینان‌های عصر دیجیتال گفتگو شود. 👤 در هدلاین رشد، ارائه‌دهندگانی از کسب وکارهای دیجیتال برتر کشور همچون  دیجی‌کالا، گلرنگ، ازکی، بیت‌پین، زرین‌پال، پیندو و ... حضور دارند و به انتقال تجربه و بررسی چالش‌ها‌ و فرصت‌های رشد کسب‌وکار در ایران می‌پردازند. ⏰ زمان و مکان: سه‌شنبه 29 آبان ساعت 15 الی 20 سالن الغدیر دانشکده مدیریت صنعتی و فناوری دانشکدگان مدیریت دانشگاه تهران ✅ ثبت‌نام رایگان با ظرفیت محدود ویژه دانشجویان دانشکدگان مدیریت 👇🏻 🔗 https://utechevents.ir/event/headline/ ⭕️ منتظرتان هستیم! _ _ _ _ _ _ _ _ _ _ _ _ _ 💬 رسانه‌های دانشکده 🔸 وب‌سایت  🔹 تلگرام  🔸 اینستاگرام  🔹 لینکدین
زمان ظهور AGI داریو آمودی (Dario Amodei) مدیرعامل Anthropic در مصاحبه جدید خود با پادکست Lex Fridman زمان ظهور AGI را سال ۲۰۲۶-۲۰۲۷ میلادی پیش‌بینی کرد! برای مشاهده کامل این اپیزود اینجا را مشاهده کنید. اخیراً سم آلتمن نیز در مصاحبه با Y-Combinator این زمان را سال ۲۰۲۵ میلادی پیش‌بینی کرد (اینجا را مشاهده کنید). منظور از AGI سطحی از هوش‌مصنوعی است که در حد انسان و یا حتی فراتر از انسان توانایی درک و حل مسائل متنوع در حوزه‌های مختلف را دارد. تمامی سیستم‌های هوش‌مصنوعی معرفی شده تا الان مشابه انسان Generality نداشته و تنها به مجموعه‌ای محدود از تسک‌ها اشراف دارند. [💡به نظرم این صحبت‌ها بیشتر جنبه مارکتینگ داره، رسیدن به AGI صفر و یک نیست. یعنی چیزی نیست که تو آزمایشگاه یک شبه ساخته بشه و فرداش اعلام بشه. ضمن اینکه تعریف مشخص و اجماع شده‌ای روش وجود نداره و هر کسی می‌تونه با دستکاری تعریف روش ادعا داشته باشه. مسائل حل نشده زیادی باقی مونده که جواب دادن بهشون کار یک نفر یا یه کمپانی نیست!] #agi #sam_altman #dario_amodei 🌑 آقای هوش مصنوعی🌑 🎥رسانه هوش مصنوعی دانشگاه تهران @MrArtificialintelligence
✍️ کارمندان دیجیتال، انقلاب بعدی در نیروی کار هوش مصنوعی دیگر فقط یک ابزار نیست - انقلاب بعدی نیروی کار است! جنسن هوانگ، مدیر عامل انویدیا، در طول سخنرانی ویژه خود در اجلاس هوش مصنوعی ژاپن، چشم انداز جسورانه ای را برای عوامل هوش مصنوعی به عنوان «کارمندان دیجیتال» معرفی کرد – سیستم های هوش مصنوعی تخصصی که در کنار انسان ها در سراسر صنایع کار خواهند کرد. 📢 نکات مهم: ✅ عوامل هوش مصنوعی نقش هایی را در بازاریابی، پشتیبانی مشتری، زنجیره تامین، طراحی تراشه، توسعه نرم افزار و کشف دارو بر عهده خواهند داشت ✅ آنها با خودکارسازی کارهای پیچیده با هوش انسان مانند، صنایع را متحول خواهند کرد ✅ انویدیا در خط مقدم این انقلاب است و نحوه عملکرد کسب و کارها را تغییر می دهد 💡 چرا این مهم است: 🔹 آیا کارمندان دارای هوش مصنوعی آینده کار هستند؟ 🤔 🔹 آیا این می تواند جایگزین میلیون ها شغل شود یا فرصت های جدیدی ایجاد کند؟ 🔹 چشم انداز هوانگ نشان دهنده تغییر به سمت یکپارچه سازی کامل هوش مصنوعی است #آینده_مشاغل #هوش_مصنوعی  #کارمند_دیجیتال 🌑 آقای هوش مصنوعی🌑 🎥رسانه هوش مصنوعی دانشگاه تهران @MrArtificialintelligence
🏮تحلیل رقابت میان آمریکا و چین در حوزه هوش مصنوعی را می‌توان نبردی برای تعریف ماهیت آینده بشریت دانست. این جنگ تکنولوژیک تنها بر سر برتری اقتصادی یا نظامی نیست، بلکه تلاشی است برای تسلط بر ابزارهایی که ذات قدرت، ارتباطات و حتی ارزش‌های انسانی را شکل می‌دهند. چین با پروژه‌هایی نظیر DeepSeek، به دنبال خلق نظم جدیدی است که در آن داده‌ها، هوش مصنوعی و فناوری، محور تصمیم‌گیری و حکمرانی شوند. این فناوری‌ها نه‌تنها بهره‌وری را افزایش می‌دهند، بلکه امکان کنترل دقیق‌تر بر جوامع را فراهم می‌کنند. از این منظر، هوش مصنوعی به ابزار جدیدی برای مشروعیت‌بخشی ایدئولوژیک و تثبیت نفوذ ژئوپلیتیکی تبدیل شده است. آمریکا، به‌عنوان وارث عصر روشنگری و مهد فناوری مدرن، در تلاش است تا این نظم نوظهور را به چالش بکشد و آزادی‌های فردی و خلاقیت غیرمتمرکز را به‌عنوان ارزش‌های محوری خود حفظ کند. رقابت در هوش مصنوعی، بازتابی از این دو جهان‌بینی متضاد است: مدرنیته کنترلی چین در برابر مدرنیته آزاد آمریکا. در این جنگ، هوش مصنوعی دیگر صرفاً ابزاری نیست؛ بلکه استعاره‌ای است از اینکه چه کسی آینده را تعریف خواهد کرد. آیا آینده جهانی متمرکز و داده‌محور خواهد بود، یا نظامی انعطاف‌پذیر و مبتنی بر تنوع انسانی؟ پاسخ این سؤال، آینده تمدن ما را شکل خواهد داد.
در طول تاریخ، قدرت از مسیرهای مشخصی عبور کرده است: نیروی فیزیکی، مالکیت منابع، برتری اقتصادی و در نهایت، تسلط بر اطلاعات. اما اکنون، برای اولین بار، رقابت نه بر سر مالکیت اطلاعات، بلکه بر سر تولید و پردازش هوش در جریان است. ایالات متحده و چین، درک کرده‌اند که AGI صرفاً یک پیشرفت فناورانه نیست، بلکه یک تغییر پارادایم در مفهوم قدرت است—تغییری که می‌تواند نظم جهانی را از بنیان دگرگون کند. دیدار سام آلتمن با دونالد ترامپ و لیانگ ونفنگ با شی جین پینگ را نباید تنها در چارچوب تصمیمات سیاست‌گذاران دید. این لحظات نشان می‌دهند که دولت‌ها به این نتیجه رسیده‌اند که آینده‌ی کنترل، نه در تسلیحات، نه در اقتصاد، بلکه در کیفیت و عاملیت هوش مصنوعی نهفته است. هر دو کشور می‌دانند که تسلط بر AGI به معنای تعریف قوانین جدید بازی خواهد بود—قوانینی که شاید دیگر توسط انسان‌ها نوشته نشوند. اما این رقابت برخلاف رقابت‌های صنعتی یا تسلیحاتی گذشته، یک چالش منحصربه‌فرد دارد: آیا انسان می‌تواند بر چیزی که از او باهوش‌تر خواهد شد، کنترل داشته باشد؟ این بار، ما نه با یک فناوری، بلکه با چیزی روبه‌رو هستیم که می‌تواند فکر کند، بیاموزد و حتی برای خودش تصمیم بگیرد. اگر این مسیر بدون کنترل ادامه یابد، در نهایت، تصمیم‌گیرنده‌ی نهایی دیگر نه واشنگتن خواهد بود، نه پکن، نه سیلیکون ولی و نه شنژن بلکه خودِ هوش مصنوعی خواهد بود. و در آن لحظه، چیزی اساسی تغییر خواهد کرد. برای نخستین بار در تاریخ، تصمیم‌گیری دیگر به اراده‌ی انسانی وابسته نخواهد بود. AGI می‌تواند سیستم‌های اقتصادی، علمی و حتی سیاسی را چنان بازآرایی کند که ساختارهای کنونی دیگر معنا نداشته باشند. شاید حکومت‌ها و شرکت‌ها همچنان در ظاهر پابرجا بمانند، اما قواعد بازی را دیگر آن‌ها تعیین نخواهند کرد. اینجاست که پرسش نهایی مطرح می‌شود: آیا این رقابت، تنها یک نبرد فناورانه است، یا لحظه‌ای تاریخی که در آن انسان جایگاه خود را در جهان بازتعریف می‌کند؟ اگر در گذشته، ما خالق ابزار بودیم، اکنون ابزاری را می‌سازیم که شاید روزی خودش تصمیم بگیرد که ما را دیگر نیاز ندارد. و شاید آن روز، رقابت امروز دیگر هیچ معنایی نداشته باشد. #تحلیل_هوش_مصنوعی
Data Scientist Roadmap | |-- 1. Basic Foundations |   |-- a. Mathematics |   |   |-- i. Linear Algebra |   |   |-- ii. Calculus |   |   |-- iii. Probability |   |   -- iv. Statistics |   | |   |-- b. Programming |   |   |-- i. Python |   |   |   |-- 1. Syntax and Basic Concepts |   |   |   |-- 2. Data Structures |   |   |   |-- 3. Control Structures |   |   |   |-- 4. Functions |   |   |   -- 5. Object-Oriented Programming |   |   | |   |   -- ii. R (optional, based on preference) |   | |   |-- c. Data Manipulation |   |   |-- i. Numpy (Python) |   |   |-- ii. Pandas (Python) |   |   -- iii. Dplyr (R) |   | |   -- d. Data Visualization |       |-- i. Matplotlib (Python) |       |-- ii. Seaborn (Python) |       -- iii. ggplot2 (R) | |-- 2. Data Exploration and Preprocessing |   |-- a. Exploratory Data Analysis (EDA) |   |-- b. Feature Engineering |   |-- c. Data Cleaning |   |-- d. Handling Missing Data |   -- e. Data Scaling and Normalization | |-- 3. Machine Learning |   |-- a. Supervised Learning |   |   |-- i. Regression |   |   |   |-- 1. Linear Regression |   |   |   -- 2. Polynomial Regression |   |   | |   |   -- ii. Classification |   |       |-- 1. Logistic Regression |   |       |-- 2. k-Nearest Neighbors |   |       |-- 3. Support Vector Machines |   |       |-- 4. Decision Trees |   |       -- 5. Random Forest |   | |   |-- b. Unsupervised Learning |   |   |-- i. Clustering |   |   |   |-- 1. K-means |   |   |   |-- 2. DBSCAN |   |   |   -- 3. Hierarchical Clustering |   |   | |   |   -- ii. Dimensionality Reduction |   |       |-- 1. Principal Component Analysis (PCA) |   |       |-- 2. t-Distributed Stochastic Neighbor Embedding (t-SNE) |   |       -- 3. Linear Discriminant Analysis (LDA) |   | |   |-- c. Reinforcement Learning |   |-- d. Model Evaluation and Validation |   |   |-- i. Cross-validation |   |   |-- ii. Hyperparameter Tuning |   |   -- iii. Model Selection |   | |   -- e. ML Libraries and Frameworks |       |-- i. Scikit-learn (Python) |       |-- ii. TensorFlow (Python) |       |-- iii. Keras (Python) |       -- iv. PyTorch (Python) | |-- 4. Deep Learning |   |-- a. Neural Networks |   |   |-- i. Perceptron |   |   -- ii. Multi-Layer Perceptron |   | |   |-- b. Convolutional Neural Networks (CNNs) |   |   |-- i. Image Classification |   |   |-- ii. Object Detection |   |   -- iii. Image Segmentation |   | |   |-- c. Recurrent Neural Networks (RNNs) |   |   |-- i. Sequence-to-Sequence Models |   |   |-- ii. Text Classification |   |   -- iii. Sentiment Analysis |   | |   |-- d. Long Short-Term Memory (LSTM) and Gated Recurrent Units (GRU) |   |   |-- i. Time Series Forecasting |   |   -- ii. Language Modeling |   | |   -- e. Generative Adversarial Networks (GANs) |       |-- i. Image Synthesis |       |-- ii. Style Transfer |       -- iii. Data Augmentation | |-- 5. Big Data Technologies |   |-- a. Hadoop |   |   |-- i. HDFS |   |   -- ii. MapReduce |   | |   |-- b. Spark |   |   |-- i. RDDs |   |   |-- ii. DataFrames |   |   -- iii. MLlib |   | |   -- c. NoSQL Databases |       |-- i. MongoDB |       |-- ii. Cassandra |       |-- iii. HBase |       -- iv. Couchbase | |-- 6. Data Visualization and Reporting |   |-- a. Dashboarding Tools |   |   |-- i. Tableau |   |   |-- ii. Power BI |   |   |-- iii. Dash (Python) |   |   -- iv. Shiny (R) |   | |   |-- b. Storytelling with Data |   -- c. Effective Communication | |-- 7. Domain Knowledge and Soft Skills |   |-- a. Industry-specific Knowledge |   |-- b. Problem-solving |   |-- c. Communication Skills |   |-- d. Time Management |   -- e. Teamwork | -- 8. Staying Updated and Continuous Learning     |-- a. Online Courses     |-- b. Books and Research Papers     |-- c. Blogs and Podcasts     |-- d. Conferences and Workshops     `-- e. Networking and Community Engagement Best Data Science & Machine Learning Resources: https://topmate.io/coding/914624 All the best 👍 🌑 آقای هوش مصنوعی @MrArtificialintelligence
در دنیایی که سرعت تغییرات فناوری سرسام‌آور است، تحول دیجیتال دیگر یک انتخاب نیست، بلکه سرنوشتی است که ما را در بر گرفته است. دانشگاه، صنعت و حکمرانی دیگر مرزهای جداگانه‌ای ندارند؛ آن‌ها باید به یک اکوسیستم واحد تبدیل شوند، جایی که دانش و تجربه در هم تنیده می‌شوند تا مسیر آینده را شکل دهند. اما این آینده تنها با ابزارهای دیجیتال ساخته نمی‌شود، بلکه با تغییری عمیق در طرز فکر رهبران آن امکان‌پذیر است. سازمان‌هایی که هوش مصنوعی را فقط به عنوان یک فناوری می‌بینند، دیر یا زود از رقابت حذف خواهند شد. آنچه اهمیت دارد، هم‌سویی فکری مدیران ارشد با این تحول است—درک این حقیقت که هوش مصنوعی تنها یک ابزار نیست، بلکه یک تغییر بنیادین در ماهیت تصمیم‌گیری، یادگیری و نوآوری است. در این میان، انسان چه جایگاهی دارد؟ آیا پاسخ‌های آماده‌ی هوش مصنوعی اندیشه را تضعیف می‌کنند یا فرصتی برای تفکر عمیق‌تر فراهم می‌آورند؟ تحول شناختی، بیش از تغییر فناوری، تغییری در نگاه ما به خود و جهان است. آینده نه از آن کسانی است که صرفاً می‌پذیرند، بلکه متعلق به کسانی است که با شهامت، این تغییر را می‌سازند. https://www.aparat.com/v/cfzay2q
هوش مصنوعی برای شکار متقلبان مالیاتی اکوفارس: دانشمندان به دنبال استفاده از هوش مصنوعی برای به دام انداختن فراریان مالیاتی هستند.   به گزارش اکوفارس ، همواره این نگرانی مطرح می‌شود که با توسعه هوش مصنوعی و ساخت روبات‌هایی که با جنبه‌های بیشتری از زندگی انسان‌ها درهم‌آمیخته می‌شوند، آینده زندگی بشر در زمین در معرض خطرات پیش‌بینی نشده‌ای قرار گیرد. از جمله شخصیت‌هایی که در این باره ادعایی مطرح کرده استفان هاوکینگ است که فکر می کند اگر روند توسعه هوش مصنوعی به همین منوال به پیش رود، تمدن انسانی در معرض خطر قرار گرفته و در نهایت توسط ماشین‌آلات هوشمند ساخت دست بشر نابود خواهد شد. اما حالا محققان دانشگاه MIT با همکاری بنیاد فناورانه Mitre آینده‌‌ای خطرناک را این بار نه برای انسان‌های عادی، بلکه برای آن دسته از تجار و کارآفرینانی ترسیم کرده‌اند که تمایلی به پرداخت مالیات ندارند. این محققان به دنبال استفاده از هوش مصنوعی برای شناسایی و به دام انداختن آن دسته از افراد حقیقی و حقوقی هستند که با تقلب کاری در پرونده‌های مالیاتی خود از پرداخت مالیات به دولت فرار می‌کنند. از این فناوری برای بررسی موشکافانه تمامی راه‌های فرار و پوشش‌های نامرئی‌کننده متقلبان مالیاتی استفاده می‌شود.
همزمان با توسعه روباتها و ماشینهای هوشمند این پرسش مطرح می شود که آیا آنها می توانند خلاقیت به خرج داده و از قدرت تخیلشان استفاده کنند؟ به گزارش ساج نیوز، دو دانشمند شناخته شده در عرصه علوم روباتیک و هوش مصنوعی در پاسخ به این پرسش که توسط روزنامه گاردین مطرح شده به اظهار نظر پرداخته اند. دکتر ماریا ترزا رودریگز از «گروه خلاقیت ماشینی» دانشگاه گلد اسمیت انگلیس می گوید: ما از مدتها پیش به کار در کنار ماشین آلاتی عادت کرده ایم که البته از سطح بالایی از توانایی شناختی برخوردار نیستند و دقیقا به همین دلیل است که بسیاری از مردم نمی توانند تصور کنند که این دسته از ماشین آلات توانایی چشمگیری در بروز رفتارهای شناختی داشته باشند. این دانشمند می افزاید: مشکلی که درخصوص نمونه های اولیه این نوع ماشین آلات و تجهیزات کاربردی وجود دارد این است که وابستگی زیادی به تنظیمات (انسانی) و دانش سازندگانشان داشته اند که این مسأله به شکل گیری محدودیتهایی برای آنها می شود. به طور کلی انسانها موجودات خلاقی هستند زیرا توانایی درک ویژگی وسایل و ساختارها را دارند و با تکیه بر دانشی که از این طریق به دست می آورند به آن سطح از قابلییتهای خیره کننده رسیده اند که می توانند تغییرات زیادی در دنیا ایجاد کنند. به عقیده ماریا ترزا، اگر قرار باشد ماشین آلات روباتیکی اطرافمان هم چیزی به جز یک سری دستگاههای ساده باشند، نیاز به استفاده از دانشی دارند که آنها را به ساختارهایی هوشمند و خلاق تبدیل کند. وی می افزاید: تحقیقاتی که در زمینه هوش مصنوعی انجام می گیرد نیز در راستای غلبه بر چالشها و محدودیتهایی است که ناشی از لزوم حضور انسان و تنظیمات انسانی در توسعه این ساختارهاست. هدف نهایی از ادامه این تحقیقات دستیابی به آن سطح از هوش مصنوعی است که خلاقیت و انعطاف پذیری دو ویژگی عمده آن باشد. مایکل اوسبورن از دانشگاه آکسفورد که در زمینه توسعه ماشین آلات هوشمند فعالیت تحقیقاتی دارد نیز می گوید: نباید انتظار داشت که در آینده نزدیک روباتها به سطح بسیار بالایی از خلاقیت دست یابند. به عقیده این محقق، تولید ماشین آلات خودکار با برخورداری از ویژگی خلاقیت و انعطاف پذیری به مجموعه ای از دستورالعمل های کامل و دقیقی نیاز است تا هدف نهایی یعنی بروز رفتارهای خلاقانه از سوی روباتها محقق شود. اوسبورن از آن دسته محققانی است که به طراحی الگوریتی ویژه برای ماشین آلات روباتیکی برای تشخیص بسیاری از نکات و حالات عقیده دارد.
کنفرانس بین المللی پژوهش های کاربردی در کامپیوتر و فن آوری اطلاعات - بهمن 94 ------ محورهای همایش کامپیوتر: مهندسی نرم افزار سیستم های نرم افزاری، مهندسی نرم افزار و روش های صوری، معماری نرم افزار، مهندسی وب، پایگاه داده عملیاتی و پایگاه داده تحلیلی، داده کاوی، امنیت اطلاعات و امنیت سیستم های نرم افزاری، تست و ارزیابی سیستم های نرم افزاری، نظریه محاسبات، مباحث ویژه در مهندسی نرم افزار، سایر مباحث مرتبط با مهندسی نرم افزار و سایر موارد مرتبط. هوش مصنوعی هوش مصنوعی و یادگیری، بینایی ماشین و پردازش تصویر، محاسبات نرم، پردازش صوت و سیگنال، شناسایی الگو، پردازش زبان طبیعی، سیستم چند عامله، مباحث ویژه در سیستم هوشمند و محاسبات نرم، سایر مباحث مرتبط با سیستم های هوشمند و سایر موارد مرتبط. معماری کامپیوتر معماری کامپیوتر، سیستم های حسابی، قابلیت اطمینان، تحمل پذیری اشکال و آزمون پذیری، معماری سیستم های موازی، مدلسازی و ارزیابی کارآیی سیستم های کامپیوتری، مدارهای مجتمع در مقیاس بسیار بزرگ، سیستم های نهفته و بی درنگ، سیستم های قابل پیکربندی، فناوری نوظهور، مباحث ویژه در سیستم دیجیتالی، شبکه های ارتباطی موبایل و بی سیم، سایر مباحث مرتبط با سیستم های دیجیتالی و سایر موارد مرتبط. فن آوری اطلاعات و ارتباطات شبکه های کامپیوتری، انتقال داده، امنیت شبکه های کامپیوتری، محاسبات اینترنتی، مشبک و خوشه ای، پردازش موازی و سیستم های توزیع شده، مدلسازی و ارزیابی کارآیی شبکه های کامپیوتری، مباحث ویژه در شبکه های کامپیوتری و سیستم توزیع شده، معماری سازمانی فناوری اطلاعات، یادگیری الکترونیکی، سیستم های محاسباتی انسان محور، مدیریت فناوری اطلاعات، تجارت الکترونیکی، سیستم های حمل و نقل و انتقال و ارتباطات هوشمند، معماری اطلاعات و مدیریت دانش و سایر موارد مرتبط. و تمامی موضوعات مرتبط با علوم کامپیوتر محورهای همایش فن آوری اطلاعات: مدیریت و برنامه‌ریزی فناوری اطلاعات یادگیری الکترونیکی دولت الکترونیکی تجارت و بانکداری الکترونیکی شبکه‌های اجتماعی رایانش مجازی معماری سازمانی سیستم‌های اطلاعاتی مقیاس وسیع یکپارچه‌سازی سیستم‌های سازمانی تعامل‌پذیری خودتطبیقی سیستم‌های تصمیم‌یار مهندسی دانش مدیریت و مهندسی خدمات و تمامی موضوعات مرتبط با فن آوری اطلاعات محورهای همایش برگزار کنندگان: دانشگاه صنعتی مالک اشتر دانشگاه علمی کاربردی مهلت ارسال چکیده مقالات: مهلت ارسال متن کامل مقالات: 15 دی 1394 تاریخ برگزاری همایش: 15 بهمن 1394 سایت همایش: www.citconf.ir تلفن تماس دبیرخانه: 22640491-22614617-226146021 آدرس دبیرخانه: تهران - خیابان شریعتی- دو راهی قلهک- خ شهید پابرچا- بلوار آینه- گل یخ غربی- پلاک 16 محل برگزاری: تهران ایمیل: [email protected]
محققان ایرانی دانشگاه سیمون فریزر کانادا سیستم پیشرفته شبیه ساز رانندگی طراحی کرده‌اند فرمان این خودرو در دست کیست؟ محققانی که در حوزه هوش مصنوعی تحقیق می‌کنند بر این باورند روزی خواهد رسید که ربات‌ها - یا به عبارتی فناوری‌های مبتنی بر هوش مصنوعی ـ به چالش جدی برای میلیون‌ها شاغل در این کره خاکی تبدیل شود . حتی امنیت شغلی بسیاری از شاغلان در صنایعی که ممکن است تصورش را هم نکنید در معرض خطر قرار خواهد گرفت. یکی از این صنایع صنعت خودروسازی است که این روزها بیش از پیش در مسیر هوشمندسازی در حرکت است. در دنیای امروز هنوز خودروهای بدون راننده یا به اصطلاح «خودروهای خودران» از جمله فناوری های لوکس به شمار می آیند که به نظر می رسد نمی توانند به سرعت جایگزین خودروهای معمولی شوند. اما پیش بینی می شود با توجه به خطاها و محدودیت های انسانی، این خودروها باید دیر یا زود جایگزین خودروهای معمولی شود. به گزارش جام جم آنلاین، سالانه شمار زیادی از افراد در تصادفات رانندگی جان خود را از دست می دهند. در مقابل خودروهای خودران در مقایسه با راننده هایی که ممکن است به هر علتی دچار خطا شوند، به مراتب ایمن تر هستند. این خودروها به پیشرفته ترین فناوری ها مجهز شده اند تا با سرعت و امنیتی بیشتر مسافران شان را به مقصد برسانند.
کارگاه بینایی ماشین (Kinect) ارائه دهنده: مهندس طاهر عباسی با مقدمه ای از: پروفسور رضا صفابخش، استاد تمام دانشکده مهندسی کامپیوتر دانشگاه امیرکبیر صادر کننده مدرک: اداره انجمن های علمی دانشگاه امیرکبیر + پژوهشکده رباتیک امیرکبیر مدت: 1 روز – چهارشنبه 27 آبان ماه هزینه: 95 هزار تومان (30 درصد تخفیف برای دانشجویان و فارغ التحصیلان امیرکبیر) ظرفیت: 15 نفر (الویت با کسانی است که زودتر ثبت نام کنند) ثبت نام: مبلغ کارگاه را به شماره حساب ۲۱۷۷۵۱۹۰۰۱۰۰۲ بانک ملی بنام درآمدهای اختصاصی دانشگاه صنعتی امیرکبیر واریز کرده و عکس فیش واریرزی به همراه مشخصات ثبت نام کننده (نام و نام خانوادگی، شماره دانشجویی، دانشگاه، شماره تماس و …) را به آدرس ایمیل [email protected] ارسال نمایید. هدف: امروزه ابزارهای گوناکونی سخت افزاری و نرم افزاری در حوزه بینایی ماشین معرفی شده است. در این کارگاه ابتدا توضیحات مقدماتی در مورد سنسور Kinect و کتابخانه های OpenCV و OpenTLD شرح داده می شود و سپس چند مثال با استفاده از این ابزار انجام داده می شود. مطالب: بینایی ماشین و جایگاه آن در رباتیک شرایط و پارامترهای تصویربرداری، انواع فرمتهای تصویر الگوریتمهای پایه بینایی ماشین، تقطیع تصاویر بینایی ماشین در ربات فوتبالیست (تشخیص اشیاء، ممانها، تشخیص خطوط، مکانیابی)