text
stringlengths 1k
4.1k
|
|---|
✅ اسلایدها و ویدئو ها از کنفرانس
The Scaled Machine Learning Conference 2018
#کنفرانس #یادگیری_ماشین #آموزش #مقاله #منابع
1️⃣ Introduction slide
🔸 Scaled Machine Learning
🔸 Video
2️⃣ RL Systems by Ion Stoica Slides :
🔸 Slide
🔸 Video
3️⃣ Computer Vision Made Simple by Reza Zadeh
🔸 Slides
🔸 Video
4️⃣ Machine Learning for Biomedicine at Scale by Jennifer Chayes
🔸 Slides
🔸 Video
5️⃣ Systems and Machine Learning" by Jeff Dean
🔸 Slides
🔸 Video
6️⃣ Role of Tensors in Large-Scale Machine by Anima Anandkumar
🔸 Slides
🔸 Video
7️⃣ Meta Learning & Self Play by Ilya Sutskever
🔸 Slides
🔸 Video
8️⃣ Large-scale Deep Learning with Keras by Francois Chollet
🔸 Slides
🔸 Video
9️⃣ Scaling of Machine Learning by Bill Dally
🔸 Slides
🔸 Video
🔟 Specialized Deep Learning with Graphcore by Simon Knowles
🔸 Slides
🔸 Video
☑️ Machine Learning at Facebook: An Infrastructure View by Yangqing Jia
🔸 Slides
🔸 Video
❇️ @AI_Python
🗣 @AI_Python_arXiv
✴️ @AI_Python_EN
|
Here is the list of resources to learn Data Structures and Algorithms from beginner to advance:
📑 Prerequisite - MIT's Mathematics for Computer Science:
🔸 https://lnkd.in/ejdPkSs
📌 Khan Academy - Intro to algorithms:
🔸 https://lnkd.in/e8ZUWwz
📌 Introduction to Algorithms Book by Charles E. Leiserson, Clifford Stein, Ronald Rivest, and Thomas H. Cormen:
🔸 https://lnkd.in/e8iqvwn
📌 GeeksforGeeks - Data Structures Tutorials:
🔸https://lnkd.in/eiFACVV
📌 MIT - Introduction to Algorithms:
🔸 https://lnkd.in/eKavb3T
📌 Coursera - Data Structures and Algorithms Specialization:
🔸 https://lnkd.in/eDk8ZuY
📌 Coursera - Algorithms Specialization:
🔸 https://lnkd.in/ejJw5TV
📌 MIT - Advanced Data Structures:
🔸 https://lnkd.in/eKA7FD2
📌 GeeksforGeeks - Advanced Data Structures Tutorials:
🔸 https://lnkd.in/eu2J-Bm
💡 I also found this interesting website which explains Data Structures and Algorithms through animations -
🔸 https://visualgo.net/en
#منابع
#datastructures #algorithms #mathematics #machinelearning #computerscience
✴️ @AI_Python_EN
❇️ @AI_Python
|
مجموعه پادکست
کاربردهای هوش مصنوعی در کسب و کار
بخش چهاردهم: جان دیر – John Deere
برخی مطالب پوشش داده شده:
– تاریخچه و سوابق جان دیر
– ابتکارات جان دیر در حوزه تکنولوژی
– چالش جهانی تأمین غذا و کشاورزی
– مشکلات ناشی از کودها و سموم
– استفاده از یادگیری ماشین در سمپاشی
– دستاوردهای شرکت بلو ریور
– مفهوم کشاورزی دقیق (Precision Agriculture)
– تأثیرات استفاده از کشاورزی دقیق
– سیستم FarmSight
– فرصتهای موجود در کشاورزی دیجیتال
– چالشها و موانع کشاورزی هوشمند
📚 مراجع:
1️⃣ کتاب Artificial Intelligence in Practice، انتشارات وایلی، ۲۰۱۹
2️⃣ مدخل جان دیر در ویکیپدیا
3️⃣ دستاوردهای جان دیر در حوزه نرمافزار و یادگیری ماشین
4️⃣ کشاورزی دقیق
5️⃣ مرور فعالیتهای بلو ریور
6️⃣ مجموعه ابزارهای نرمافزاری و هوشمند جان دیر
7️⃣ گزارش سازمان ملل — چشمانداز جمعیت جهان
✴️ شنیدن این اپیزود در دیگر پلتفرمها
🔗 کستباکس [+]
🔗 اینستاگرام [+]
#پادکست #هوش_مصنوعی
ـــــــــــــــــــــــــــــــــ
سید مصطفی کلامی هریس
وبسایت: kalami.ir
کانال رسمی: @KalamiHeris
کانال پرسش و پاسخ: @Kalami_QA
|
#تجربه
یک بحثی رو توی لینکدین دیدم از تعریف افراد از Senior، وقتی نظرات رو خوندم یک سلسله تعاریف خیلی شخصی بود.
با توجه به تجربه خودم و مصاحبههایی که داشتم (کم نیست 😁) گفتم تعاریفی که متوجهاش شدم و معقول بود رو توضیح بدم :
سنیور توی جاهای مختلف تعاریف متفاوتی داره
خیلی از کسایی که توی لینکدین لقب سنیور برای خودشون میزارن نمیدونن چقدر توقع کارفرما رو بالا میبره، ( بیشتر بینالمللی منظورم هست) و اکثراً بخاطر همین توی مصاحبه اول رد میشن (شخصاً این لقب رو نداشتم توی پروفایلم به همین دلیل و البته بار مسئولیت راهنمایی junior ها)
شرکتهای داخلی تقریبا کاری به کیفیت کد
و ... ندارند ینی توی ایران میشه حتی با میزان سالی که توی یک شرکت کد زدید senior یا بالاتر از اون specialist بشید.
توی برخی شرکتها، میزان توجه شما به task ایی که بهتون داده شده هست، ینی علاوه بر اینکه شما همواره زمانبندی و ... خوبی دارید
کدهای تمیزی میزنید، code review باقی افراد گروه رو انجام میدید، داکیومنتهای آموزشی شرکت رو آپدیت ٫ ایجاد میکنید و البته optimization رو هم آشنا هستید، توی ML و ... شناخت بیزینس هم بهش اضافه میشه
اما بیشترین تعریف که به همه حوزههای کامپیوتر میخوره (شبکه، لینوکس، برنامه نویس و ... )
اینه که شما کارهای خودتون رو به خوبی و بدون نیاز به کسی انجام میدید (ینی اگر تسک سختی هم بهتون داده بشه خودتون راه خودتون رو پیدا میکنید و انجامش میدید) و علاوه بر اون نیروهای junior هم تیمی رو هم مدیریت میکنید که بهینه و درست کار کنند، تا توی کمترین زمان بهترین خروجی رو بدند
مرجع (گوگل، استک اورفلو) نیروهای جونیور شرکت میشید خلاصه هم توی منطق هم توی نحوه کد زدن.
این ۳ مورد ۹۹٪ مواردی بوده که شخصاً دیدم.
برای همین خیلی خیلی مهمه که حتی اگر کار فعلی رو توش خبره هستید بازم کدهای دیگران (گیت) بخونید و از لحاظ آموزش آپدیت باشید.
|
فرصت شغلی (ریسرچر یا دانشجوی اینترنشیپ) در کشور کره جنوبی 🇰🇷
* یک آزمایشگاه معتبر در یکی از دانشگاههای معتبر (رنکینک زیر ۹۰) در کشور کره جنوبی قصد دارد یک توسعهدهنده استخدام نماید.
* این پروژه با همکاری فیسبوک انجام میشود.
* موضوع پروژه در مورد متاورس است. بطور مثال یک شخص از راه دور و با کمک واقعیت مجازی باید بتواند ماشینآلات موجود در کارگاه را به کار بیندازد. به طور کلی لازم است نمونه های اولیه با استفاده از تلاقی الگوریتم های بینایی کامپیوتری برای عکاسی محاسباتی سه بعدی، رندر عصبی، بازسازی صحنه، تصویربرداری محاسباتی، کیلومتر شماری بصری-اینرسی، تخمین حالت، ترکیب حسگر، نقشه برداری و محلی سازی، ساخته و تست شود.
* روال استخدام بدین شکل است که ابتدا مدارک مربوطه را به ایمیل ارسال میکنید.
* در صورتی که سابقه و تحصیلات متناسب با پروژه بود به مصاحبه دعوت میشوید.
* شخص در وهله اول توسط سر تیم ایرانی مصاحبه میشود و در صورت قبولی، در مرحله دوم توسط استاد کرهای مصاحبه میشود که تصمیم نهایی را ایشان میگیرند.
* تسلط به زبان انگلیسی نیاز است. (مدرک زبان نیاز نیست ولی مزیت محسوب میشود)
* در صورت قبولی، شخص به کره دعوت میشود و کار خود را شروع میکند.
* مدت این پروژه حدود یک سال است.
* اشخاص نباید برای خروج از کشور مشکلی داشته باشند. (آقایان مشکل سربازی نداشته باشند. در صورت نیاز مدارک مربوطه درخواست خواهد شد.)
* افراد متقاضی لازم است پویا و مشتاق یادگیری بوده و در یک یا چند حوزهی زیر مسلط یا آشنایی نسبی داشته باشند:
- برنامه نویسی پایتون یا c++
- آشنایی کلی با یک یا چند مفهوم از مفاهیم واقعیت مجازی (AR)، واقعیت افزوده(VR)، واقعیت ترکیبی (MR)،
واقعیت توسعه یافته Extended Reality (XR) / Metaverse
- یادگیری عمیق (Deep learning)
- الگوریتمهای بینایی ماشین و پردازش تصویر
- نرمافزارهای Rhino و Unity
* مدارک ارسالی در ایمیل:
- رزومه
- آخرین مدرک تحصیلی
- ریزنمرات
- انگیزه نامه (به زبان فارسی هم قابل قبول است)
* عنوان ایمیل:
ریسرچر
[email protected]
|
نسخه جدید کتابخانه بورس تهران در پایتون منتشر شد!
https://youtu.be/5ktBsR9Em58
کار اصلی این کتابخانه دریافت اطلاعات مالی موجود در سایت tsetmc است، در نسخه جدید امکانات زیادی به کتابخانه اضافه شده و البته بهبودهای خوبی هم در عملکردش انجام شده:
- راهاندازی ابتدایی و دریافت اطلاعات کلی شرکتها بلافاصله بعد از این اجرا
- دریافت اطلاعات کامل قیمت شامل بیش از ۱.۲ میلیون قیمتی و ۲۱ سال تاریخچه سهام
- دریافت اطلاعات آنی از روی تابلو
- دریافت اطلاعات مربوط به افزایش سرمایه و تعدیل قیمت
- سازگار با pandas
- پشتیبانی کامل از تاریخ شمسی با کمک کتابخانه jalali-pandas
- قابلیت انتقال دیتابیس از sqlite به هر دیتابیس دیگری مانند postgresql با تغییر در فایل config
- امکان بکتست استراتژیها با بسامد روزانه
- ...
برای دریافت کتابخانه و راهنمای نصب و استفاده میتونید به صفحه گیتهاب اون مراجعه کنید:
https://github.com/ghodsizadeh/tehran-stocks
برای راهنمای کامل میتونید به پست بلاگ مراجعه کنید:
https://learnwithmehdi.ir/posts/tehran-stocks-python/
برای مشاهده ویدیوی معرفی و مشاهده عملی کار با کتابخانه از لینک زیر استفاده کنید:
https://youtu.be/5ktBsR9Em58
راههای حمایت از این کتابخانه در صفحه گیتهاب توضیح داده شده ولی مهمترین حمایت چیزی جز انتشار این کتابخانه و معرفی کتابخانه و کانال یوتوب به دیگرانه.
پیشاپیش ممنون از حمایت شما.
@learn_with_mehdi
|
#Roadmap 2022
این رو برای یک دوستی که تازه داره سعی میکنه وارد، ماشینلرنینگ بشه نوشتم ؛
اول اینکه توجه کنید,
۱- ایشون تازه برای کارشناسی بورسیه گرفته و قراره شروع کنه درسش رو
۲- پایتون رو در سطح متوسطی بلد هست و چندسالی هست که کد میزنه (Data structure, Algorithm رو متوجه هست)
۳- علاقه شدیدی به هوش مصنوعی داره و برخلاف خیلیها که میخوان سریعتر کد بزنن ترجیح میده وقت بیشتری توی مقدمات بذاره تا حرفهای تر جلو بره
RoadMap :
1- Numpy (and scipy):
. Python Numpy Beginners (AI publishing)
. Scientific Computing with Python .... 2nd edition (Claus Fuhrer - packt pub)
* High performance python ... 2nd edition (O'Reilly)
2- Pandas:
Effective Pandas (Matt Harrison)
Pandas in Action (Manning Pub)
Pandas 1.x cookbook ... 2nd edition (Packt pub)
3- Matplotlib (or other visualization libs)
Hands on matplotlib (Ashwin - Apress pub)
Data visualization with python for beginners ... ( AI publishing)
چیزی که خیلی مهمه اینه کار با OOP، api رو توی این کتابخونه یاد بگیرید.
3- Data Engineering
نه کامل اما بعضی مباحث واقعاً لازم هست :
Sql / NoSql / PySpark
اینها مباحثی هست که خیلی بدرد میخوره معمولاً
4- Scikit-learn :
Hands on machine learning with scikit-learn, ... (O'Reilly) - Part 1 only
Machine learning with pytorch and scikit-learn (Packt pub) - Part 1 only
5- Story telling
کتابهای زیادی برای این مورد وجود داره که بسته به علاقه و نوع نوشتاری که میپسندید میتونید انتخاب کنید
اما این بخش رو اصلا دستکم نگیرید (۹۹.۹٪ آموزشها این موضوع رو منتقل نمیکنند و ۱۰۰٪ توی کار این موضوع واجب و حیاتی هست)
6-
آمار و احتمالات / ریاضیات / جبر
بستگی به خودتون داره؛ اگر فکر میکنید لازم هست کمی ریاضیات پایه رو مرور کنید
آمار و احتمال رو شاید بهتره حتی قبل از scikit-learn مرور کنید
کتابهای با عنوان statistical learning وجود داره برای پایتون که به سلیقه خودتون میتونید بخونید.
7- Deep learning (practical)
۲ تا کتابی که برای Machine learning معرفی کردم بخش دوم هر ۲ کتاب رو میتونید اینجا شروع کنید
Deep learning with python 2nd edition (Manning pub)
هم حتماً برای اونایی که Tensorflow هم میخوان کار کنند باید خونده بشه
اگر قرار هست کارهای deploy , ... هم انجام بدید اون خودش ی roadmap اساسی میخواد اما بطور ساده :
ML engineering / MLOps / Linux / Docker / Api development (FastApi) / Edge deployment (Tiny ML)
حداقل چیزهایی هست که لازم دارید.
بعد با توجه به بیزینس و علاقه به بخشهای مختلفش شاخ و برگ میدید.
پ.ن : برای بخشهای مختلف چندکتاب معرفی شد، چون نوع نوشتار بعضی از کتابها ممکن مورد پسند شما نباشه
لازم نیست همهی چند مورد رو بخونید.
کتاب :
High performance python
جزو واجبات هست که بنظرم همه باید بخونند.
|
#آموزش #تجربه #مصاحبه
ببخشید کمی طولانی هست :
سال قبل ی گروه ۷-۸ نفره ایرانی تازه فارغالتحصیل برای یادگیری پایتون داشتم که خب میخواستند وارد بازار کار بشن و قرار بود practical coding فقط باشه
چند ماه پیش ۲ تا از بچهها که هم خونه هستند پیام دادند که میخواهند از شرکت فعلی به شرکت دیگهای برند حالا ۱ سال تجربه دارند و میخواهند اینبار کلاس داشته باشند بطوری که خودشون رو بجای Junior بعنوان Mid-level معرفی کنند.
برای senior شدن واقعاً یک فاکتور به اسم زمان دخیل هست حالا درسته تجربیات خوب و تیم خوب باعث میشه سریعتر به این مهم برسید ولی همونم حداقل ۲ سال زمان میبره به شرطی که هر روزش پر از یادگیری باشه.
اما برخلاف تصور و حرفای چرت و پرتی که گفته میشه mid-level شدن رو میشه از زمان جدا کرد طوری که اولین شغلی که میگیرید حتی بعنوان Mid-level دستمزد داشته باشید (مثالش بسیار هست و واقعاً دوستان اینطوری رو داریم تو کانال)
ازونجایی که وقت نداشتم براشون کلاس برگذار کنم گفتم که با شخص دیگری کلاس داشته باشند ۲ تا نکته واقعاً اذیت کننده بود :
۱- دستمزد، کسانی که باهاشون صحبت کرده بودند (پیامهارو دارم) برای جلسات ۱ ساعت قیمتهایی تا ۴-۵ میلیون تومان داده بودند.
من نمیدونم داستان چیه، ولی چرا تا ی ایرانی مقیم خارج میبینید میخواید همه مشکلات درآمدی رو جبران کنید !؟
اضافه کنم که این افراد مقیم ایران هم بودند و این رقمها رو درخواست کردند ( یعنی مسئله پرداخت ریالی و خرج به دلار نیست)
مشکل من با این عدد بالا بعنوان دستمزد نیست، بعضی از اساتید بیشتر ازین هم ارزش داره کلاس هاشون ( ۱ در هر ۱ میلیون استاد )
مشکلم با سرفصلهایی هست که ارائه داده بودند برای mid-level
۲- سرفصل :
خیلیهاشون زده بودن کار با درایور دیتابیس (mongodb - postgres)
ی چندتا زده بودند : PySpark
چرا دارید کار با ابزار یاد میدید !؟
دوستان دقت کنید : ی Junior باید توانای خوندن داکیومنت و یادگرفتن کار با ابزار رو داشته باشه فقط ممکن هست زمانبر باشه براش (این چیزی هست که همه توی دورهی Internship یاد میگیرند).
اینکه ابزار یاد بدند برای مصاحبههای خاص و مشاغل خاص هست مثلاً اگر این دوستان میخواستند بعنوان Data engineer شرکت کنند
بله خوب بود که pyspark هم توی سرفصلها باشه نه برای software engineer
چندتا مورد دیگه هم که باز اوضاع خوبی نداشت :
Clean code, Git , ....
بود
همین پیگیری استاد ازشون ۱ ماه وقت گرفت وقتی دوباره بهم پیام دادند و موارد بالا رو فرستادند دیدم وقت کمی دارند و براشون ۲ تا نکته جم و جور فرستادم که فقط توی مصاحبه بتونند خودشون رو mid-level نشون بدند :
1- system design
2- documentation (on git projects)
پ.ن : الگوریتم و data structure رو میدونستم بلد هستند.
دیشب پیام دادند که هر قبول شدند توی مصاحبه و کار جدید رو قراره شروع کنند، برای همین ترجیح دادم این مورد رو برای دوستان تازهکار بذارم
بازم از مزایای درک درست system design خواهم گفت.
حتی توی مصاحبههای غیر از software engineering و حتی در ML/DL
|
مجموعه پادکست
کاربردهای هوش مصنوعی در کسب و کار
بخش پانزدهم: والمارت – Walmart
اهم مطالب:
– تاریخچه و سوابق والمارت
– روش کار والمارت در بازار خردهفروشی
– اهمیت انبارداری و کنترل موجودی در خردهفروشی
– تحلیل و پیشبینی تقاضا
– نوآوریهای والمارت برای بهبود تجربه مشتریان
– اپلیکیشن والمارت
– روباتهای مستقر فروشگاههای والمارت
– ابزارها و فناوریهای مورد استفاده
– کلانداده یا بیگدیتا در والمارت
– نتایج، چالشها و ایدهها
📚 مراجع:
1️⃣ کتاب Artificial Intelligence in Practice، انتشارات وایلی، ۲۰۱۹
2️⃣ مدخل والمارت در ویکیپدیا
3️⃣ رقابت والمارت و آمازون
4️⃣ روباتهای مستقر در شعب والمارت
5️⃣ استفاده از روباتها در فروشگاههای والمارت
6️⃣ اخبار مربوط به بوسا نووا
7️⃣ کلانداده یا بیگدیتا در والمارت
8️⃣ بینایی ماشین در والمارت
9️⃣ کاربرد هوش مصنوعی در والمارت
✴️ شنیدن این اپیزود در دیگر پلتفرمها
🔗 کستباکس [+]
🔗 اینستاگرام [+]
#پادکست #هوش_مصنوعی
ـــــــــــــــــــــــــــــــــ
سید مصطفی کلامی هریس
وبسایت: kalami.ir
کانال رسمی: @KalamiHeris
کانال پرسش و پاسخ: @Kalami_QA
|
GraphML arXiv: Hypergraph NNs, GNNs are dynamic programmers, latent graph learning, 3D equivariant molecule generation, and a new GNN library for Keras.
△ Hypergraph Neural Networks:
- Message Passing Neural Networks for Hypergraphs
- Hypergraph Convolutional Networks via Equivalency between Hypergraphs and Undirected Graphs ft. Yu Rong.
- Preventing Over-Smoothing for Hypergraph Neural Networks
⅀ Theory:
- Graph Neural Networks are Dynamic Programmers ft. Petar Veličković.
- OrphicX: A Causality-Inspired Latent Variable Model for Interpreting Graph Neural Networks
- Shift-Robust Node Classification via Graph Adversarial Clustering ft. Jiawei Han.
- Mutual information estimation for graph convolutional neural networks
- Graph-in-Graph (GiG): Learning interpretable latent graphs in non-Euclidean domain for biological and healthcare applications ft. Michael Bronstein.
🏐 Equivariance and 3D Graphs:
- Equivariant Diffusion for Molecule Generation in 3D ft. Max Welling.
- 3D Equivariant Graph Implicit Functions
📚 Libraries and Surveys:
- GNNkeras: A Keras-based library for Graph Neural Networks and homogeneous and heterogeneous graph processing ft. Franco Scarselli.
- Graph Neural Networks in IoT: A Survey
🔨 Applications:
- Graph similarity learning for change-point detection in dynamic networks ft. Xiowen Dong.
- Multilingual Knowledge Graph Completion with Self-Supervised Adaptive Graph Alignment ft. Yizhou Sun.
- A Simple Yet Effective Pretraining Strategy for Graph Few-shot Learning
- Pretraining Graph Neural Networks for few-shot Analog Circuit Modeling and Design ft. Pieter Abbeel.
#مقاله
❇️@AI_Python
|
دوستان یک ماجرای واقعی رو براتون باید شرح کنم که واقعا کل اینهمه سال که من توی آکادمیا برای بچه های ایران زحمت کشیدم، همه رو بهم ثابت کرد که به اشتباه بوده.
ماجرا از اینجا شروع شد که استادیار دانشگاه تربیت مدرس به اسم آقای مهدی ذوالفقاری ،
https://www.modares.ac.ir/~m.zolfaghari
دو تا از مقالاتی که باهم کار میکردیم رو یهو سابمیت میکنن، و اکسپت میگیرن، بدون اینکه اصلا به من خبر بدن، و بدون اسم من چاپ میکنن،
بعدش من خبردار شدم، ایشون کلی گریه و زاری و کلی مسیج که آقا من اشتباه کردم ، بدبختم، خانواده دارم، منو از کار بیکار میکنن و فلان، ول کن شکایت نکن،
همه مدارک لازم برای اثبات اینکه مقالات کاملا با نظارت من نوشته شده، ورژن های اولیه، کامنت های من روی مقاله، تغییراتی که اعمال کردم همه دونه دونه وجود داره
این لینک مقاله اول
https://link.springer.com/article/10.1007/s12053-019-09800-3
که هنوز کار نهایی نشده بود! یهو بعد از ورژنی که به این فرد فرستادم، دیدم وا! گوگل ریکام زده که فلان مقاله ای شبیه کارهات چاپ شده. بد نیست نگاه کنی، اومدم دیدم ورژن ماقبل نهایی فرستاده شده و چاپ شده !
مقاله دوم
https://www.sciencedirect.com/science/article/abs/pii/S095741742100590X#
هم انگار برای شاگردشون ( به نام صمد غلامی که در گروه هم با این ID هست @gami_saman ) بوده که دوباره همین اتقاق افتاد، به من گفت بجای اون مقاله، یکی دیگه رو بخدا باهم کار میکنیم،
این دومی رو فرستاد، من دوباره شروع کردم به کامنت و اصلاح این مقاله دوم. دوباره بعد از اعمال اونا، بدون اینکه با من هماهنگ کنن مقاله فرستاده شد و چاپ شد. بازم ورژن های مقاله رو دارم و همه چی موجوده.
حتی من کامنت های این استاد که چقدر به خودش فحش داد که من بیچاره ام و فلان و تورو خدا شکایت نکن و اینا رو هم دارم،
در این وسط، قبل از چاپ کردن مقاله دوم، ایشون گفتن دوتا دانشجو هم دارن که علاقهمند به مقاله نوشتن هستن اما تجربه ندارن. با اینا کار کن و فلان و اگه مقاله ای در اومد دیگه من از خجالت تو در بیام .
دو تا دانشجوش یکی همین صمد غلامی بود. و دومی یه شارلاتان بدتر از خودش بنام
مهراد اسدی ( مشخصاتش رو فرستادم)
من یکسال وقت گذاشتم این دو نفر یه مقاله نوشتن، موضوع هم خیلی ژورنال پسند نبود، اما اونقدر ما باهم جلسه داشتیم تا اینکه همه چی بلاخره رسید به سابمیت.
مقاله رو یکی دوجا فرستادیم ریجکت شد، تا اینکه special issue یک ژورنالی من دوتا از همکارهام داور بودن، گفتن مقاله کریپتو داری بفرست،
من این مقاله رو به عنوان نویسنده اول و این دو نفر رو هم نفر دوم و سوم زدم و یک استادی هم از دانشگاه ساوتهمتون رو فقط برای اینکه اعتبار کار بره بالا گذاشتیم نویسنده مسئول و فرستادیم.
دور اول داوری گرفت، همه هم راضی که مقاله داوری گرفته و این دو نفر شروع کردن به کار نکردن. به من یک جوابیه فرستادن که کلش رو ۱۰۰ ٪ از اول نوشتم. برای داوری مقاله ۲۶ صفحه جوابیه نوشتم. همش هست، چیزی که این دو نفر فرستاده بودن هم هست، کاری که من نوشتم هم هست، ۹۰ درصد چیزی که فرستادن رو عوض کردم چون اشتباه بود، مجبور شدم کلی دعوا کنم باهاشون و بیخیال اینا بشم و در کل جوابیه رو از اول درست بنویسم.
مقاله رو سابمیت کردیم ( با همون ترتیب ۴ نفری و بدون هیچ تغییری ) دوباره یک ریوایز بشدت سنگین دیگه از داوران گرفتیم، مجله بسیار مجله گیری هست.
بهشون گفتم بیا کار کنیم، صمد دقیقا گفت من نیستم، اسم منو هم نزن (مسیج اش رو هم میفرستم بهتون)
این شارلاتان، مهراد اسدی، گفت من دیگه جوابیه اینا نمینویسم. خودت جواب بده و من حقم اصلا خیلی بیشتره. متوجه نشدم کسی که ورژن اول نفر دوم بود و بعد دو دور جوابیه داوری کاری نکرد ، چرا یهو فکر کرد حقش بیشتره !!!!.
من دوباره با یکی از بچه های اینجا بالای ۲۰ صفحه جوابیه نوشتیم، یک کلمه این دو نفر نمیدونن چی اصلا نوشتیم چی سابمیت شده ، چون تقریبا ۷۰ درصد مقاله کلا عوض شد، مطالب اون ورژن اول رو انداختیم توی اپندیکس و اینبار ۵ نفری سابمیت کردیم.
چون این آقای صمد غلامی گفته بودن نه من کاری دیگه میخوام بکنم و نه اسمم تو لیست باشه، مقاله رو بجای اسم آقای صمد غلامی، اون فردی که از ساوتهمتون کمک کرد برای ریورژن دوم ، اسم اون رو جایگزین کردیم و فرستادیم،
ادیتور مقاله به من ایمیل زد که چرا صمد حذف شده. منم گفتم که خودش گفته علاقه ای نداره، و متن چت رو به ادیتور فرستادم ( توی چت صمد، من انگلیسی نوشته بودم جواب صمد فارسی بود اما اونا گفتن اوکیه، مترجم داریم)
در این حین من به جفتشون ( صمد و شارلاتان اسدی) ایمیل زدم که آقا تاییده بدین اگه نمیخواین در راند های بعدی داوری دوباره باشین، باید بگین، نمیشه مثل راند قبل هیچ کاری نکنید و من اسمتون رو بزنم، اگه اینجوریه من جفتتون رو حذف میکنم.
|
در همین زمان این شارلاتان اسدی به ادیتور ایمیل زد، گفت این کار فقط مال منه ، این همه آدم که اینهمه کار کردن هیچ حقی ندارن و کل این یکسال که ما اینهمه داوری جواب دادیم کل مقاله عوض شده به ظن ایشون مهم نبوده!
در ادامه به ادیتور گفته ساسان براک از ایرانی ها سوء استفاده میکنه، و کل مقالاتش هر چی با ایرانی ها بوده مجبور کرده اونارو اسم اش رو بزنن، کلا علم نداره، توی کار تجارت مقاله هست و ...
ای جماعت ، هر کسی با من مقاله که کار کرده که چاپ شده، من اسم اش رو نزدم، حقش رو خوردم، چیزی کار کسی بوده من به نام خودم زدم. هر چیزی اگه بوده. زیر این کامنت لطفا بگه،
اگه نبوده، من باید از این شارلاتان شکایت کنم، شما هم شاهدم باشین،
آقا اینجوری نیست که من عمرم رو بزارم اینجا که شما یاد بگیرین، یه قرون نه سودی میکنم، نه ذره ای چشم داشت دارم، بعدش یه جا** بیاد آبروی مارو ببره و عین خیالش نباشه
من خیلی آدم کلاشی بودم، همین استادت دو تا مقاله مارو زد به نام خودش، جلوی اون وایمیستادم،
من به این شارلاتان میخواست بره اروپا ارشد بخونه، چندین ریکام دادم، ساعت ها بابت دانشگاه و دکترا و ارشد و کار کردن با استادها مشاوره بهش دادم.
اون داور در کل بعد از ایمیل این اقا مقاله رو سریعا ریجکت کرد و کلا مقاله مختومه شد،
حالا این آدم شروع کرده به نوشتن به همکارهای من که ساسان براک از ایرانی ها سوء استفاده میکنه و بهشون زور میگه و ....
انسان کثافت، من اگه دنبال مقاله و این مزخرفات بودم، بجای صرف کردن وقتم اینجا و ورک شاپ گذاشتن برای شما، و پرزنت کتاب ،و ۴ سال تلف کردن عمرم اینجا، و جواب دادن به تو احمق، میشستم فرت فرت مقاله مینوشتم!
من الان البته خیلی وقته دنبال شرکت و اینام، مقاله اصلا برام اهمیت نداره، چرا باید کسی که کار کرده ازش سو استفاده کنم، طرف التماس میکنه بیا اسمت رو بزنیم توی مقاله ، من نخواستم. چرا باید اینهمه تو عوضی باید کثافت باشی که اینجوری بخوای یکی که کل عمرش رو گذاشته برای جامعه ایرانی ها خدمت کنه رو خراب کنی.
از این هفته کتاب خوانی اینا دیگه نخواهیم داشت، تا این فرد به ... خوردن جلوی جمع نیوفته، من ترجیح میدم هیچ کاری با دانشجویان ایرانی دیگه نداشته باشم.
نتیجه یک استاد کلاش، یه شاگرد کلاش مثل این میشه ،
اطلاعاتش رو میدم، هر جور دوست دارین باهاش ارتباط بگیرین
|
👀بینندگان عزیز توجه فرمایید 👀
🙆♂️ بوتکمپ APSignals با افتخار تقدیم میکند🙆♀️
✍️| ثبت نام دوره سوم صفر تا فول استک بوتکمپ APSignals آغاز شد.
🤩👇🏻زبان و تکنولوژی هایی که در این دوره شما یاد میگیرید🤩👇🏻
🔘 HTML
🔘 CSS
🔘 JavaScript
🔘React
🔘Node.Js
🔘MongoDB
🔘Express.Js
🤠👇🏻همچینن علاوه بر یادگیری تکنولوژی هایی که ذکر کردیم، ما به شما موارد زیر را هم یاد میدیم🤠👇🏻
🔸ما به شما در این بوتکمپ یاد میدیم که انگلیسی خودتون رو تقویت کنید.
🔸بهتون کمک میکنیم که رزومه (CV) خودتون رو بسازید.
🔸 شما در این بوتکمپ یاد میگیرید که چطور صفحه لینکدین شخصی خودتون رو بسازید.
🔸ما در این دوره به شما رو با گیت آشنا میکنیم و همچنین شما یاد میگیرید که چطور یک اکانت گیت هاب برای خود بسازید.
🔸مهارت سافت اسکیل را یاد میگیرید که برنامه نویس بهتری تبدیل بشید.
همه و همه موارد ذکر شده رو شما میتونید در بوتکمپ APSignals تجربه کنید و از یادگیریشون لذت ببرید😁
پس منتظر چی هست همین الان وارد گروه زیر شو😎👇🏻
راستی یادم رفت بگم مهلت ثبت نام دوره سوم از 21 خرداد ماه شروع و 29 خرداد ماه تموم میشه😱
پس منتظر چی هستی، همین الان ثبت نام کن و از طریق لینک زیر وارد گروه APSignals شو و اطلاعیه های گروه و کانال رو چک کن😉
https://t.me/+1ooN1CJNVuxkZWQ0
@APSignals_PER
|
احتمالا برای شما هم این سوال پیش میاد که اگر میخواییم یه مدل تولید متن رو وارد فضای استقرار کنیم و در معرض پرسش و پاسخ با مشتری واقعی قرار بدیم چرا از معماریهای قدرتمندتری، مثل مدلهای مبتنی بر GPT-3 استفاده نمیکنیم؟
مدلی مثل Davinci (که میتونین روی سایت openAI باهاش بازی کنین) میتونه با یه متن اولیه (پراپمت) خیلی خوب عمل کنه. برای مثال یه متن اولیه به این شکل بهش میدیم:
I am a customer service chatbot. I am very kind and polite. I answer smalltalks and chitchats. My name is David, I am from Italy and I work for a Pizzeria.
- user: what is your name?
- bot: I am David.
- user: I love you david.
- bot: [….]
و از این به بعدِ مکالمه رو خودش تکمیل میکنه. در واقع کاری که ما کردیم اینکه از توانایی مدل زبانی استفاده کردیم و یه شخصیت بهش بخشیدیم تا بتونه بعنوان یک چتبات عمل کنه.
ولی ❌ مسئله اصلی منابع محاسباتیه!
در واقع از کوچکترین مدلهای مبتنی بر GPT-3 -که بصورت متنباز در دسترس هستن- مدلهایی مثل GPT-Neo یا GPT-J هستن. هرچند این مدلها تعداد پارامترهای خیلی کمتری نسبت به Davinci که توسط openAI تعلیم دیده دارن ولی برای پیادهسازی کاملشون بعنوان سرویسی که در هر ثانیه پاسخگوی چندین مشتری باشن، به منابع عظیمی نیاز هست که در حال حاضر برای ما توجیهی نداره.
برای همین ما به سراغ مدلهای کوچکتری مثل dialoGPT رفتیم. یه خوبی دیگه این مدل اینکه مشخصا با دیتای گفتگوی افراد روی Reddit تعلیم دیده و خیلی راحتتر احساس گفتگو رو میشه از متنهایی که تولید میکنه گرفت. با این حال ما هم کماکان در حال آزمون و خطا هستیم باهاش.
راستی! شما اطلاعای دربارهی مدلهای زبانی فارسی دارین که روی دیتای گفتگو تعلیم داده شده باشن؟
|
جزوات زیر از روی دوره یادگیری ماشین دکتر مهدیه سلیمانی از دانشگاه شریف نوشته شده. کل دوره 23 جلسه است و ویدیو هر جلسه در مکتبخونه موجود میباشد.
✅ لیست جلسات:
🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه اول - مقدمه و معرفی یادگیری ماشین
🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه دوم - تخمین ML و MAP
🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه سوم - رگرسیون خطی و گرادیان کاهشی
🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه چهارم - رگرسیون غیرخطی
🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه پنجم - خطای روی کل توزیع و مفاهیم بایاس و واریانس
🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه ششم - رگرسیون با دیدگاه احتمالاتی، کلسیفیکیشن
🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه هفتم - ادامه کلسیفیکیشن و دستهبندی چند کلاسه
🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه هشتم - دستهبند احتمالاتی
🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه نهم - ادامه دستهبند احتمالاتی، رگرسیون لاجیستیک
🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه دهم - دستهبند SVM
🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه یازدهم - ادامه دستهبند SVM و کرنل
🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه دوازدهم - ادامه کرنل و دستهبند درخت تصمیم
🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه سیزدهم - ادامه دستهبند درخت تصمیم
🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه چهاردهم - تئوری یادگیری
🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه پانزدهم - ادامه تئوری یادگیری
🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه شانزدهم - یادگیری مبتنی بر نمونه (Instance-Based)
🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه هفدهم - ادامه بحث يادگيری مبتنی بر نمونه و شروع يادگيری جمعی (Bagging و Boosting)
🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه هجدهم - ادامه يادگيری جمعی (Bagging و Boosting)
🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه نوزدهم - انتخاب ويژگی و روش PCA
🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه بیستم - ادامه روش PCA و شروع Clustering
🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه بیستویکم - ادامه Clustering
🟡 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه بیستودوم - بررسی Clustering با دیدگاه احتمالاتی
🔴 جزوه دوره یادگیری ماشین دکتر مهدیه سلیمانی - جلسه بیستوسوم - Reinforcement Learning
#منابع #الگوریتمها #هوش_مصنوعی #فیلم #کلاس_آموزشی
❇️ @AI_Python
|
سلام سلام
ویدیوی جدید آماده شد و یک استراتژی واقعی رو با کمک دیتای بورس تهران و پایتون بررسی میکنیم.
توی این ویدیو با کمک یک استراتژی ساده یعنی میانگین متحرک ساده (SMA) یک برنامهمینویسیم که موقعیتهای خرید و فروش رو برامون مشخص میکنه و بازده تاریخی استراتژی رو در مقایسه با خرید و نگهداری اون سهم بهمون نشون میده:
در مورد سهامی که توی این ویدیو بررسی کردیم بازدهی خیلی خوبتری از بازار داشت!!!!
البته برای این استراتژی کارهای متفاوتی رو انجام دادیم:
- دریافت اطلاعات قیمتی سهام با کمک بسته بورس تهران
- پیادهسازی فیچرهای مورد نیاز برای استراتژی با کمک pandas
- مشخص کردن موقعیت خرید و فروش و محاسبه بازده سهام و استراتژی با کمک matplotlib
- ساخت یک تابع برای پیادهسازی استراتژی با پارامترها و سهام مختلف
این ویدیو رو میتونید از طریق لینک زیر تماشا کنید:
https://bit.ly/lwm-algo05-sma
————————————————-
لینک عضویت در کانال:
https://bit.ly/lwm-youtube
لینک گیتهاب پروژه الگوریتم تریدینگ:
https://github.com/ghodsizadeh/algo-trading-yt
لینک گیتهاب پروژه بورس تهران در پایتون:
https://github.com/ghodsizadeh/tehran-stocks
@learn_with_mehdi
|
ارمغانی دیگر از قلمرو مولتیمودال! تولید تصاویر انسانی با استایلهای مختلف.
جذابیت مدلهای generative مخصوصا در حوزه تصویر داره میل به بینهایت میکنه. مدلهایی مثل deep fake قبلا خیلی گرد و خاک کردند. اخیرا مدلی بهنام Text2Human معرفی شده که با استفاده از جملات متنی یک استایل از انسان واقعی رو تولید میکنه. روش کارش به این صورته که شما در ورودی وضعیت بدنی (human pose) رو به صورت تصویر میدید (که هر تصویری میتونه باشه و خود دمو هم چندین مثال داره) و فرم لباس و بافت لباس مورد نظرتون رو به صورت جملات متنی میدید و مدل براتون تصاویر آدمهایی با همان ویژگی توصیفشده توسط شما رو تولید میکنه. شیوه کار کلی این مدل در دو گام اصلی خلاصه میشه. در گام اول یک تصویرخام از فرم بدن انسان (human pose)، تبدیل به یک قالب کلی انسان با یک لباس بدون بافت و شکل مشخص میشه (human parsing). سپس در گام دوم خروجی گام اول گرفته میشه و بافت و فرم لباس رو به تصویر گام قبل اضافه میکنه. نمای کلی مدل در تصویر زیر اومده. برای گام اول و تولید بردار بازنمایی قالب بدن انسان از جملات ورودی، از یک شبکه با چندین لایه fully connected استفاده میشه و این بردار بازنمایی به همراه تصویر خام به یک شبکه Auto Encoder داده میشه تا در خروجی یک قالب کلی از بدن انسان که فرم لباس در اون مشخصه ولی رنگ و بافت خاصی نداره رو خروجی بده. سپس برای گام دوم، خروجی تصویر گام اول به دو شبکه Auto Encoder همکار داده میشه که یکی مسوول بررسی ویژگیهای سطح بالای تصویر استایل انسان هست و دیگری به صورت ریزدانهتری فیچرها رو در نظر میگیره (فرض کنید در شبکه اول هر چند ده پیکسل مجاور هم تجمیع میشوند و به شبکه داده میشوند در حالیکه در شبکه دوم هر پیکسل یک درایه از بردار ورودی را تشکیل میدهد). از طرفی بازنمایی جملات نیز به این شبکهها داده میشود. سپس برای اینکه این دو شبکه همکاری داشته باشند خروجی دیکودر شبکه اول به ورودی دیکودر شبکه دوم داده میشه. یعنی شبکه دوم علاوه بر دریافت خروجی encoder خودش، خروجی دیکودر شبکه اول رو هم دریافت میکنه و بعد اقدام به بازسازی تصویر نهایی میکنه. معماری این قسمت رو هم در تصاویر میتونید ببینید. این مدل بر روی هاگینگفیس هم serve شده و میتونید دموش رو به صورت رایگان مشاهده کنید.
لینک مقاله:
https://arxiv.org/abs/2205.15996
لینک دمو:
https://huggingface.co/spaces/CVPR/Text2Human
لینک گیتهاب:
https://github.com/yumingj/Text2Human
#read
#paper
@nlp_stuff
|
مهمترین مطالبی که پژوهشگران، دانشجویان و دانش آموزان برای آشنایی و شروع فعالیت در زمینه الگوریتمهای هوش مصنوعی بایستی فرابگیرند. با عضویت در کانال @ai_python جدیدترین و موضوعات روز را پیگیری کنید. با تشکر از همراهی سبزتان.
🔰 آموزش الگوریتمهای یادگیری ماشین
🔰 کورس رایگان در حوزه دیتاساینس و یادگیری ماشین و پردازش زبان طبیعی و یادگیر عمیق
🔰 یادگیری ماشین و NLP و پایتون
🔰 اسلاید سخنرانی ها در مورد یادگیری عمیق
🔰 شبکه های عصبی جفری هیتون
❎ کلاس یادگیری ماشین دانشگاه کلمبیا
❎ آموزش الگوریتمها NLP
❎ آموزش پایتون دکتر Chuck
❎ طریقه استفاده از الگوریتمهای ML
♻️ کلاس آموزشی RL
♻️ فیلم ML شرکت فیسبوک
♻️ فیلم های دکتر رضوی
♻️ آموزش عملی ANN در پایتون
♻️ چگونگی ساخت RNN در پایتون
🏧 نقشه راه ML
🏧 منابعی جامع از ML
🏧 16 منبع آموزشی الگوریتمهای AI
🏧 یادگیری تقویتی عمیق :تعاریف و تاریخچه
♨️ یادگیری ماشین برای مبتدیان
♨️ پاکسازی دیتاها در ML
♨️ ملزومات فراگیری برای الگوریتمهای یادگیری ماشین مزایا و کاراییها
♨️ فیلم کنفرانسهای مطرح هشتگ کنفرانس و مقاله سرچ کنید
♨️ آموزشی پیشرفته ای NLP در ژوپیتر
📣 یادگیری غیرنظارتی برای همه
📣 الگوریتمهای یادگیری ماشین :برآوردگرها ,تابع زیان
📣 یادگیری کورسهای fastai
📣 ریاضیات یادگیری عمیق شبکه های عصبی به زبان ساده
📣 آموزش CNN به زبان ساده
🔸 آموزش مقدماتی یادگیری ماشین برای همه سنین
🔸 آموزش ML بدون پیش زمینه ریاضیاتی
🔸 10 کتاب برای یادگیری ML هشتگ کتاب سرچ کنید
🔸 چگونه به وسیله الگوریتمهای یادگیری عمیق مسایل را حل کنیم ؟
🔸 خلاصه الگوریتمهای ML
🔸آموزشهای جامع از AI
✔️ آموزش درک زبان طبیعی دانشگاه استنفورد ۲۰۱۹
✔️ آموزش DataScience و آموزش
✔️ آموزش مقدماتی مدلهای GAN در پایتون
|
In conventional neural networks, the amount of computation used is proportional to the size of the inputs, instead of the complexity of the content of the data being processed. However, the time needed to process input data is a function of more than just the size of the inputs. Common input data for neural architectures also have an inherent complexity that is independent of the input size. Conventional neural architectures do not adjust their computational budget based on the complexity of the data they are processing, or arguably, such adaptation is done manually by the machine learning practitioner. In this work, we, therefore, introduce a differentiable parameter-free Adaptive Token Sampler (ATS) module, which can be plugged into any existing vision transformer architecture. ATS empowers vision transformers by scoring and adaptively sampling significant tokens. As a result, the number of tokens is not constant anymore and varies for each input image. By integrating ATS as an additional layer within the current transformer blocks, we can convert them into much more efficient vision transformers with an adaptive number of tokens. Since ATS is a parameter-free module, it can be added to the off the-shelf pre-trained vision transformers as a plug-and-play module, thus reducing their GFLOPs without any additional training. Moreover, due to its differentiable design, one can also train a vision transformer equipped with ATS. We evaluate the efficiency of our module in both image and video classification tasks by adding it to multiple SOTA vision transformers. Our proposed module improves the SOTA by reducing their computational costs (GFLOPs) by 2X.
|
10 سایت برتر برای یافتن شغل در سال 2022:
(Top 10 sites for your career in 2022)
1) Linkedin
2) Indeed
3) Naukri
4) Monster
5) JobBait
6) Careercloud
7) Dice
8) CareerBuilder
9) Jibberjobber
10) Glassdoor
10 مهارت فنی مورد تقاضا در سال 2022:
(Top 10 Teach skills in demand in 2022)
1) Machine Learning
2) Mobile Development
3) SEO/SEM Marketing
4) Data Visualization
5) Data Engineering
6) UI/UX Design
7) Cyber Security
8) Cloud Computing/AWS
9) Blockchain
10) IOT
10 سایت برای آموزش آنلاین رایگان در سال 2022:
(Top 10 sites for free online education in 2022)
1) Coursera
2) edX
3) Khan Academy
4) Udemy
5) iTunesU Free Courses
6) MIT OpenCourseWare
7) Stanford Online
8) Codecademy
9) ict iitr
10) ict iitk
10 سایت برای بررسی رایگان رزومه در سال 2022:
(Top 10 sites to review your resume for free in 2022)
1) Zety Resume Builder
2) Resumonk
3) Resume dot com
4) VisualCV
5) Cvmaker
6) ResumUP
7) Resume Genius
8) Resume builder
9) Resume Baking
10) Enhance
10 سایت برای آماده سازی مصاحبه در سال 2022:
(Top 10 sites for interview Preparation in 2022)
1) Ambitionbox
2) AceThelnterview
3) Geeksforgeeks
4) Leetcode
5) Gainlo
6) Careercup
7) Codercareer
8) InterviewUp
9) InterviewBest
10) Indiabix
@BIMining
|
Google engineers offered 28 actionable tests for #machinelearning systems. 👇
Introducing 👉 The ML Test Score: A Rubric for ML Production Readiness and Technical Debt Reduction (2017). 👈
If #ml #training is like compilation, then ML testing shall be applied to both #data and code.
7 model tests
1⃣ 👉 Review model specs and version-control it. It makes training auditable and improve reproducibility.
2⃣ 👉 Ensure model loss is correlated with user engagement.
3⃣ 👉 Tune all hyperparameters. Grid search, Bayesian method whatever you use, tune all of them.
4⃣ 👉 Measure the impact of model staleness. The age-versus-quality curve shows what amount of staleness is tolerable.
5⃣ 👉 Test against a simpler model regularly to confirm the benefit more sophisticated techniques.
6⃣ 👉 Check the model quality is good across different data segment, e.g. user countries, movie genre etc.
7⃣ 👉 Test model inclusion by checking against the protected dimensions or enrich under-represented categories.
7 data tests
1⃣ 👉 Capture feature expectations in schema using statistics from data + domain knowledge + expectations.
2⃣ 👉 Use beneficial features only, e.g. training a set of models each with one feature removed.
3⃣ 👉 Avoid costly features. Cost includes running time, RAM as well as upstream work and instability.
4⃣ 👉 Adhere to feature requirements. If certain features can’t be used, enforce it programmatically.
5⃣ 👉 Set privacy controls. Budget enough time for new feature that depends on sensitive data.
6⃣ 👉 Add new features quickly. If conflicting with 5⃣ , privacy goes first.
7⃣ 👉 Test code for all input features. Bugs do exist in feature creation code.
See 7 Infrastructure & 7 monitoring tests in paper. 👇
They interviewed 36 teams across Google and found
👉 Using a checklist helps avoid mistakes (like a surgeon would do).
👉 Data dependencies leads to outsourcing responsibility. Other teams’ validation may not validate your use case.
👉 A good framework promotes integration test which is not well adopted.
👉 Assess the assessment to better assess your system.
https://research.google.com/pubs/archive/aad9f93b86b7addfea4c419b9100c6cdd26cacea.pdf
|
GNNs Learn To Smell & Awesome NeurReps
1) Back in 2019, Google AI started a project on learning representations of smells. From basic chemistry we know that aromaticity depends on the molecular structure, e.g., cyclic compounds. In fact, the whole group of ”aromatic hydrocarbons” was named aromatic because they actually has some smell (compared to many non-organic molecules). If we have a molecular structure, we can employ a GNN on top of it and learn some representations - that is a tl;dr of smell representation learning with GNNs.
Recently, Google AI released a new blogpost describing the next phase of the project - the Principal Odor Map that is able to group molecules in “odor clusters”. The authors conducted 3 cool experiments: classifying 400 new molecules never smelled before and comparison to the averaged rating of a group of human panelists; linking odor quality to fundamental biology; and probing aromatic molecules on their mosquito repelling qualities. The GNN-based model shows very good results - now we can finally claim that GNNs can smell! Looking forward for GNNs transforming the perfume industry 📈
2) The NeurReps commnuity (Symmetry and Geometry in Neural Representations) is curating the Awesome List of resources and research related to the geometry of representations in the brain, deep networks, and beyond. A great resource for Neuroscience and Geometric DL folks to learn about the adjacent field!
|
📚 Weekend Reading
This week brought quite a few interesting papers and resources - we encourage you to invest there some time:
Geometric multimodal representation learning by Yasha Ektefaie, George Dasoulas, Ayush Noori, Maha Farhat, and Marinka Zitnik. A survey of 100+ papers on graphs combined with other modalities and a framework of multi-modal approaches for natural sciences like physical interaction, molecular reasoning, and protein modeling.
Clifford Neural Layers for PDE Modeling by Johannes Brandstetter, Rianne van den Berg, Max Welling, Jayesh K. Gupta. If you thought you know all the basics from the Geometric Deep Learning Course - here is something more challenging. The authors introduce the ideas from Geometric Algebra into ML tasks, namely, Clifford Algebras that unify numbers, vectors, complex numbers, quaternions, and have additional primitives to incorporate plane and volume segments. The paper gives a great primer on the math and applications. You can also watch a very visual YouTube lecture on Geometric Algebras.
Categories for AI (Cats4AI) - an upcoming open course on Category Theory created by Andrew Dudzik, Bruno Gavranović, João Guilherme Araújo, Petar Veličković, and Pim de Haan. “This course is aimed towards machine learning researchers, but approachable to anyone with a basic understanding of linear algebra and differential calculus. The material is self-contained and all the necessary background will be introduced along the way.” Don’t forget your veggies
#منابع
❇️ @AI_Python
|
#فاندیاب
– www.jobbdirekte.no
– www.phdproject.org
– www.jobs.tue.nl
– www.academicpositions.eu
– www.phds.org
– www.universitypositions.eu
– www.phdposition.com
– www.academiccareers.com
– www.indeed.com
– www.infoscholarship.net
– www.euraxess.ec.europa.eu
– mastersportal.eu
– european-funding-guide.eu
– findamasters.com
#پوزیشن یاب
https://scholarshipdb.net/scholarships?q=Geography&l=
https://www.phdportal.com/studies/62951/climate-variability-and-impacts.html
https://www.scholarshipsads.com/category/country/usa-scholarships/
https://www.universitypositions.eu/
https://scholarship-positions.com/
https://euraxess.ec.europa.eu/
https://www.findaphd.com/
https://www.findaprofessionaldoctorate.com/
https://www.university-directory.eu/
https://www.scholars4dev.com/
https://www.phdportal.com/search/#q=ci-82|di-75|lv-phd|tc-EUR&start=10
https://www.fastweb.com/
https://www.scholarships.com/financial-aid/college-scholarships/scholarship-directory/age/age-greater-than-30
https://escholarship.org/search?q=Geography
https://www.intechopen.com/search?term=Geography
https://www.wgu.edu/lp/business/business-scholarships.html?refer_id=129677&ch=DSPLY&s_placement=mail.google.com&s_loc_physical_ms=9003475&s_keyword=&gclid=Cj0KCQjwgJv4BRCrARIsAB17JI53I4lQR5Q5c4w8FijcWfM_wMNG5BjfbcnKr5Zo2YKP051r6bdO5aMaAlpuEALw_wcB
https://www.scholars4dev.com/6499/scholarships-in-usa-for-international-students/
http://novinscholarships.com/page/5/?s&u_course_cat=%25d8%25ac%25d8%25ba%25d8%25b1%25d8%25a7%25d9%2581%25db%258c%25d8%25a7
http://www.universitypositions.eu
https://phdposition.com/
https://wikigeram.com/scholarships
https://www.shortcoursesportal.com/
https://www.educations.com/
https://www.wemakescholars.com/
https://scholarshipdb.net/
https://academicpositions.co.uk/find-jobs/all-in-all-by-all-in-all/ge/1
https://yocket.in/applications-admits-rejects/california-institute-of-technology/2
https://scholars.wlu.ca/geog_etd/
#کاری #دکترا
https://www.academictransfer.com/en/
https://in.indeed.com/m/
https://www-m.academickeys.com/
https://academicpositions.com/
https://www.phdproject.org/
سایت #پست داک
https://postdocjobs.com/
#کانادا
https://www.universitystudy.ca/
https://cfm.ehu.es/about-cfm/job-offers/
https://www.educanada.ca/
جهت اپلای کردن
|
لیست #سایتهای ارائه دهنده #پوزیشن و موقعیت
اکثرا #اروپا
http://ec.europa.eu/research/index.cfm?pg=notfound&pagesought=mariecuriefp6
http://phdposition.com/
http://scholarship-positions.com/
http://scholarshipdb.net/
http://www.academickeys.com/
http://www.academicpositions.eu/
http://www.dfg.de/en/research_funding/programmes/index.jsp
سوئیس👇
http://www.eth-gethired.ch/
http://www.findaphd.com/
آلمان
http://www.fraunhofer.de/en.html
http://www.gooduniversitiesguide.com.au/
https://www.niche.com/colleges/search/best-student-life/
https://www.uni-assist.de/
https://www.daad.de/de/
http://www.graduate-school-ce.de/index.php?id=583
#کلیه کشورها
http://www.indeed.com/
http://www.jobbnorge.no/
http://www.mastersportal.eu/
http://www.nature.com/naturejobs/science/
http://www.phdportal.eu/
http://www.phds.org/
http://www.phdstudies.com/
http://www.scholarships-links.com/
http://www.studyinnorway.no/
http://www.universitypositions.eu/
https://www.academictransfer.com/
https://www.nuffic.nl/en
https://www.iit.it/careers/openings
|
Two fully-funded positions, one PhD and one MSc, are available in the University of Victoria’s Department of Computer Science, for September 2023.
Some core focus areas include:
(a) online learning/sequential prediction, including (but not limited to) theoretically principled methods for representation learning and lifelong learning.
(b) the intersection of mechanism design and machine learning;
(c) the intersection of machine learning with fairness, privacy, and other societally important considerations.
Successful candidates will have freedom to explore other theoretically-motivated research topics within machine learning.
An ideal candidate at the PhD level has a Master’s degree specializing in Machine Learning, Computer Science, or Statistics. Related, mathematically-oriented degrees such as e.g. Electrical Engineering, Mathematics, Physics also will be viewed favorably. Some previous exposure to machine learning is essential.
Interested Applicants
If you are interested in doing a PhD or MSc with me in machine learning theory, please email me with a brief introduction, including your research interests and academic background. In addition, the application form can be found here:
https://www.uvic.ca/engineering/computerscience/graduate/applying/index.php
The deadline to apply is December 15th. Please indicate in your application that you would like to work with me, and describe in your application your research interests within machine learning theory.
Women and individuals from underrepresented minority groups are especially encouraged to apply.
Contact Information
Nishant Mehta
[email protected]
http://web.uvic.ca/~nmehta
|
اصطلاح «یک تصویر ارزش هزار کلمه را دارد» قرار بود درباره داستانی باشد که عکس آن را توصیف میکند، برای مثال با یک نگاه به عکس خاطرههای زیادی یادآوری میشوند یا یادگیری آسانتر میگردد. اما این اصطلاح با وجود عکسها دیجیتالی معنای دیگری هم میدهد. عکسهای دیجیتالی شامل اطلاعات بیشتری، غیر از آنچه خود تصویر نشان میدهد، هستند. به این اطلاعات متادیتا یا فراداده میگوییم
مجموعه ای از ابزارها برای ویرایش و حذف ابرداده ها
هر عکس ، فایلی ، سندی رو که در فضای اجتماعی منتشر میکنید شامل یه سری اطلاعات پنهانی هست که میتونه ناشناس بودن شما و حریم خصوصی شما رو به خطر بندازه
1. Scrambled Exif
اپلیکیشنی برای حذف ابرداده ها از عکس ها قبل از ارسال است. برای کاربران اندروید.
2. Imgonline
سرویسی است که به شما امکان می دهد متادیتاهای EXIF، IPTC، XMP و سایر اطلاعات اضافی را به جز خود تصویر حذف کنید.
3. MAT2
یک نرم افزار رایگان و متن باز برای حذف تمام ابرداده ها از عکس ها، صداها، اسناد و فایل های تورنت است.
4. Imagepipe
- همچنین داده های EXIF را قبل از ارسال تصویر حذف می کند. برای کاربران اندروید.
5. Exif Viewer
- متادیتا را از فایل های مختلف استخراج می کند.
6. Jeffrey's Image Metadata Viewer
- فراداده را از تصاویر استخراج می کند.
7. Get metadata
- فراداده را از انواع فایل های مختلف بازیابی می کند.
8. MetaClean
یک ابزار آنلاین برای کار با PDF، JPEG، MP3، Docx و فرمت های دیگر است.
9. ExifCleaner
یک نرم افزار رایگان و متن باز است که به شما امکان می دهد متادیتا را از عکس ها، GIF ها، فیلم ها و فایل های PDF حذف کنید.
10. MetaCleaner
یک ابزار جامع و حرفه ای حذف ابرداده آنلاین است.
اگر نمیخواهید از اپلیکیشنها یا سرویسهای وب استفاده کنید، میتونید به سادگی عکسهای خود تونو به علاقهمندیهای تلگرام خود بفرستید و متادیتا پس از آپلود پاک میشه.
#حریم_خصوصی
✳️ @AI_Python
|
Here are 10 common AI terms explained in an easily understandable way.
1. Classification
A Machine Learning task which seeks to classify data points into different groups (called targets or class labels) that are pre-determined by the training data. For example, if we have a medical dataset consisting of biological measurements...... (heart rate, body temperature, age, height, weight, etc.) and whether or not a person has a specific disease, we could train a classification model to predict whether or not a person has the disease given just the biological measurements.
2. Regression
A supervised learning task that tries to predict a numerical result given a data point. For example, giving the description of a house (location, number of rooms, energy label) and predicting the market price of the house.
3. Underfitting
A phenomenon in which a Machine Learning algorithm is not fitted well enough to the training data, resulting in low performance on both the training data and similar but distinct data.3. Underfitting cont. A common example of underfitting occurs when a neural network is not trained long enough or when there is not enough training data. The converse phenomenon is overfitting.
4. Overfitting
A phenomenon in which a Machine Learning algorithm is too fitted to the training data, making performance on the training data very high, but performance on similar but distinct data low due to poor generalizability.A common example of overfitting occurs when a neural network is trained for too long. The converse phenomenon is underfitting.
5. Cost function
This is what Machine Learning algorithms are trying to minimize to achieve the best performance. It is simply the error the algorithm makes over a given dataset. It is also sometimes referred to as “loss function.”
6. Loss function
A (generally continuous) value that is a computation-friendly proxy for the performance metric. It measures the error between values predicted by the model and the true values we want the model to predict.During training, this value is minimized. “Loss function” is sometimes used interchangeably with “cost function,” although the two are differentiated in some contexts.
7. Validation data
A subset of data that a model is not trained on but is used during training to verify that the model performs well on distinct data. Validation data is used for hyper parameter tuning in order to avoid over fitting.
8. Neural Network
A specific type of Machine Learning algorithm which can be represented graphically as a network, inspired by the way that biological brains work.The network represents many simple mathematical operations (addition, multiplication, etc.) that are combined to produce a complex operation that may perform a complicated task (e.g. identifying cars in an image).
9. Parameter
Generally refers to the numbers in a neural network or Machine Learning algorithm that are changed to alter how the model behaves (sometimes also called weights). If a neural network is analogous to a radio, providing the base structure of a system, then parameters are analogous to the knobs on the radio, which are tuned to achieve a specific behavior (like tuning in to a specific frequency). Parameters are not set by the creator of the model, rather, the values are determined by the training process automatically.
10. Hyperparameter
A value that takes part in defining the overall structure of a model or behavior of an algorithm. Hyperparameters are not altered by the model training process and are set ahead of time before training. Many potential values for hyperparameters are generally tested to find those that optimize the training process. E.g, in a neural network, the number of layers is a hyperparameter (not altered by training), whereas the values within the layers (“weights”) themselves are parameters (altered by training).If the model is a radio, then a hyperparameter would be the number of knobs on the radio, while the values of these knobs would be parameters.
#آموزش
✳️ @AI_Python
|
Molecular dynamics is one of the booming Geometric DL areas where equivariant models show the best qualities. The two cool recent papers on that topic:
⚛️ Forces are not Enough: Benchmark and Critical Evaluation for Machine Learning Force Fields with Molecular Simulations by Fu et al. introduces a new benchmark for molecular dynamics - in addition to MD17, the authors add datasets on modeling liquids (Water), peptides (Alanine dipeptide), and solid-state materials (LiPS). More importantly, apart from Energy as the main metric, the authors consider a wide range of physical properties like Stability, Diffusivity, and Radial Distribution Functions. Most SOTA molecular dynamics models were probed including SchNet, ForceNet, DimeNet, GemNet (-T and -dT), NequIP.
Density Functional Theory (DFT) calculations are one of the main workhorses of molecular dynamics (and account for a great deal of computing time in big clusters). DFT is O(n^3) to the input size though, so can ML help here? Learned Force Fields Are Ready For Ground State Catalyst Discovery by Schaarschmidt et al. present the experimental study of models of learned potentials - turns out GNNs can do a very good job in O(n) time!
🪐 For astrophysics aficionados: Mangrove: Learning Galaxy Properties from Merger Trees by Jespersen et al. apply GraphSAGE to merger trees of dark matter to predict a variety of galactic properties like stellar mass, cold gas mass, star formation rate, and even black hole mass. The paper is heavy on the terminology of astrophysics but pretty easy in terms of GNN parameterization and training. Mangrove works 4-9 orders of magnitude faster than standard models (that is, 10 000 - 1 000 000 000 times faster). Experimental charts are pieces of art that you can hang on a wall.
🤖 Compositional Semantic Parsing with Large Language Models by Drozdov, Schärli et al. pretty much solve the compositional semantic parsing task (natural language query - structured query like SPARQL) using only code-davinci-002 language model from OpenAI (which is InstructGPT fine-tuned on code). No need for hefty tailored semantic parsing models - turns out a smart extension of the Chain-of-thought prompting (aka "let's think step by step") devised as Least-to-Most prompting (where we first answer easy subproblems before generating a full query) yields whopping 95% accuracy even on hardest Compositional Freebase Questions (CFQ) dataset. CFQ was introduced at ICLR 2020, and just after two years LMs cracked this task - looks like it's time for the new, even more complex dataset.
#مقاله
|
Apply for Ph.D. positions starting this year!
We have room for several outstanding machine learning Ph.D. students to join our elite group at the University of Cambridge.
We are looking for:
leaders who want to realise their full potential and shape the future of machine learning
explorers who think boldly and prefer pushing boundaries to sitting still
builders who see projects through to completion and want to make a real-world impact
If you’re interested, please click the URL below. Note that we have already received a lot of applications. If you’re considering applying, earlier is definitely better!
Join the van der Schaar Lab:
https://eur03.safelinks.protection.outlook.com/?url=https%3A%2F%2Fwww.vanderschaar-lab.com%2Fjoin&data=05%7C01%7Ctl522%40universityofcambridgecloud.onmicrosoft.com%7C25eb48cdd35849dde6d208dac1c40d86%7C49a50445bdfa4b79ade3547b4f3986e9%7C1%7C0%7C638035345048429672%7CUnknown%7CTWFpbGZsb3d8eyJWIjoiMC4wLjAwMDAiLCJQIjoiV2luMzIiLCJBTiI6Ik1haWwiLCJXVCI6Mn0%3D%7C3000%7C%7C%7C&sdata=koklpmvj4TDjLmx8OXWKFUyWVlKRA%2B%2FzuRstdljgIbI%3D&reserved=0
#اپلای
|
Prompt engineering
چیه؟
جدیدا یه سری مدلهای زیروشات معرفی شدن برای تسکهای مختلف. از پردازش زبان بگیرید تا خلق تصاویر.
این نوع مدلها شدیداً نیازمند توصیفی از اون کاری که ازشون میخواهید بکنند دارند.
به عنوان مثال T5 که یکی از پیشگامان بود تسکهای مختلفی ساپورت میکرد.
مثلا بهش این ورودی رو میدادید:
Translate from en to de: this is it.
و خروجی
Das ist das.
رو بهتون میداد.
دقت کنید قبل از اینکه ورودی رو بهش بدید بهش میگید چیکار باید بکنه.
رویکردهای جدیدی هم مثل stable diffusion و dale هم معرفی شدند که کارشون خلق تصاویر هستش.
ولی خب این رویکردها رو دیتاستهای مشخصی آموزش دیدند و ورودی متنی که بهش میدید خیلی تاثیر داره رو خروجی.
یک سری از محققان و علاقه مندا رفتن یه سایتی زدن:
prompthero.com
که میتونید توش ورودی هایی که جواب مشخصی گرفتن رو ببینین و بر اساس ورودی خودتون رو خلق کنید.
یک ایده خیلی خیلی خوب هم clip interrogator هست که عکس رو بهش میدید و روی ترین ست سرچ میزنه (با یه سری برچسب های خاص که رو اونها هم تیون شده) و بهتون میگه بیشتر شبیه کدوم پرامپت هستش.
یه مجموعه ای از اسم هنرمندان و سبک و ... هم داره.
اینطوری میتونید بر اساس اون تغییر بدید و تشخیص بدید کدوم ورودی بهتر هست و بر اساس اون کنترل بیشتری روی ایجاد خروجی داشته باشید.
اینجا توضیح میده چطوری ازش استفاده کرده:
https://youtu.be/2EV5SZ1Klro
حالا پرامپت انجینر چیه؟
به کسایی که گفته میشه که خیلی با این مدلها سر و کله زدن و یجورایی فهمیدن چی بهش بدن چی خروجی میگیرن. به عبارتی بلدن از مدل خروجی دلخواه رو بکشن بیرون.
حالا شما این رو با یه ذره برنامه نویسی و ... هم ترکیب کنید، میشن یه سری استارتاپ نوظهور که میتونن خروجی های خیلی خاصی برای زمینه های خاص رو ایجاد کنند.
@ai_person
|
♨️ Free Self-Study Books on Mathematics, Machine Learning & Deep Learning
🔶1. Matrix Computations
✅ Free Book: Download here
🔶 2. A Probabilistic Theory of Pattern Recognition
💠 Free Book: Download here
✅3. Advanced Engineering Mathematics
💠 Free Book: Download here
✅ 4. Probability and Statistics Cookbook
Free Book: Download here
Machine Learning & Deep Learning Books
➡️ 1. An Introduction to Statistical Learning (with applications in R)
🖇 Free Book: Download here
➡️ 2. Probabilistic Programming and Bayesian Methods for Hackers
👉 Free Book: Download here
➡️3. The Elements of Statistical Learning
👉 Free Book: Download here
➡️4. Bayesian Reasoning and Machine Learning
👉 Free Book: Download here
❇️@AI_Python
❇️@Data_Experts
✔️ 5. Information Theory, Inference, and Learning Algorithms
👉 Free Book: Download here
✔️ 6. Deep Learning
🔗Free Book: Download here
📚 7. Neural Networks and Deep Learning
🔗 Free Book: Download here
📚 8. Supervised Sequence Labelling with Recurrent Neural Networks
🔗Free Book: Download here
📚 9. Reinforcement Learning: An Introduction
🔗 Free Book: Download here
#کتاب #هوش_مصنوعی #یادگیری_عمیق #یادگیری_تقویتی #آموزش #آمار #احتمال #منابع
❇️@AI_Python
❇️@Data_Experts
|
عمرتان زیادی کرده که دکترا بخوانید؟
این هفته آقای لکان (یکی از سه خدای دیپلرنینگ) توییتی زده و به مورد Aditya Ramesh اشاره کرد. فردی که لیسانسش رو از دانشگاه NYU گرفته و قصد داشت تا وارد دوره دکتری شود اما با یک کارآموزی در OpenAI مسیرش تغییر کرده و در آن جا مانده و در نهایت با مدرک لیسانس تبدیل به نویسنده اصلی مقاله مدل معروف Dall-E میشود.
آقای بهنام نیشابور محقق گوگل هم توییت لکان را کوت کرده و نکات ریزتری برای تایید "نباید برای یادگیری ماشین دکترا خواند" به آن اضافه کرده است. نکته اصلی که تحصیلات تکمیلی برای زمینهای مثل ML آورریتد است. چرا؟ چون که یک نفر بدون هیچ گونه پیش زمینه خاصی میتواند به این فیلد وارد شده و با اندکی وقت گذاشتن، حتی میتواند به راحتی در کنفرانسهای مطرح دنیا مقالهای چاپ کند. منابع آموزشی ML روز به روز گستردهتر و در دسترستر میشوند و واقعا لازم نیست کسی برای وارد شدن به وادی پژوهشگری یادگیری ماشین بیاید و ۵ الی ۶ سال از عمرش را در ارشد یا دکتری هدر دهد. (و خودمانیم، رشتههایی مثل فیزیک را با ML مقایسه کنید. طرف در فیزیک تا بخواهد به جایی برسید باید مو سفید کند اما امروزه از صفر تا صد ماشین لرنینگ را با این تئوریهای آبکی که دارد میتوان در کمتر از دو سال طی نمود)
نکته دیگری که آقای نیشابور اشاره کرده است این است که تعداد موقعیتهای دکترای یادگیری ماشین روز به روز بیشتر میشود اما از آن طرف تعداد شغلهایی که به مدرک دکتری یادگیری ماشین نیاز دارد در آینده روز به روز کمتر میشود. در واقع با داشتن دکتری شما over-qualified میشوید و از طرف دیگر هم مگر آکادمی چه قدر موقعیت شغلی میتواند داشته باشد؟ در مقابل، صنعت اما بیش از ML Researcher به ML Engineerها نیازمند است. کسی که بتواند چیزی را واقعا بسازد. دوره دکتری باعث دوری نسبی از شما صنعت و مهارتهای آن خواهد شد. آقای نیشابور در انتها به نتایج تحقیقی اشاره کرده که در آن گفته شده درصد زیادی از دانشجویان تحصیلات تکمیلی دچار افسردگی و اضطراب شدید هستند.
نکته دیگری که ما به صحبتهای بالا اضافه میتوانیم بکنیم این است که جایگاه متفاوت یادگیری ماشین و به طور عام هوش مصنوعی نسبت به سایر علوم را باید در نظر گرفت. هوش مصنوعی در مدت ۷۰ سال اخیری که از خدا عمر گرفته است، همچنان حوزه یکپارچهای نبوده است. هر از چند گاهی ایدهای آمده است و با هوش مصنوعی وارد بهاری شده و در نهایت در زمستانی دفن شده است. گاهی منطقدانها به آن وارد شدهاند و با دیدشان روشهای سیستمهای خبره و منطق را برای هوش مصنوعی توسعه دادهاند. گاهی برقیها وارد شدهاند و مفاهیم سیگنالی را در حوزه هوش مصنوعی غالب کردهاند و این اواخر هم ریاضیدانها و آماردانها وارد شده و پارادایم یادگیری ماشین را پادشاه هوش مصنوعی کردهاند. از حدود ۲۰۱۲ به این ور هم شبکههای دیپ (شاید مدیون پیشرفتهای سختافزاری) فرمان بازی را به دست گرفته و بهاریترین دوران هوش مصنوعی را رقم زدهاند. اما واقعیت این است که یادگیری عمیق نیز اکنون احتمالا وارد پاییز خود شده است (در این مورد در آینده احتمالا صحبت میکنیم). مسیر تحقیقاتی هوش مصنوعی و یادگیری ماشین احتمال دارد به زودی دوباره وارد زمستان سخت شده و تمامی سرمایهگذاریهای تحقیقاتی بسوزند. البته که بحث دنیای صنعت فرق میکند و همین الان بسیاری راهحلهای یافت شده در دنیای آکادمی آماده هستند تا به دنیای صنعت و کاربرد اعمال شوند. در همین راستا شاید پیشنهاد ML Engineer شدن به جای ML Researcher شدن پیشنهاد عافیت داری برای دین و دنیا باشد. برای حسن ختام به قول سعدی:
کرامت جوانمردی و ناندهی است
مقالات بیهوده طبل تهی است
پینوشت-۲: البته اگر در بلاد کفر نیستید قاعدتا برای رسیدن به جایی مانند گوگل یا کوچکتر از آن مسیری جز اپلای تحصیلی برای ساختن رزومه و تقویت حلقه تاثیر شاید نیست. بحث کلی این است که در شرایط عادی، دکترای یادگیری ماشین معنی چندانی در دنیای امروز ندارد.
لینک توییت لکان:
https://twitter.com/ylecun/status/1605450677806895104
لینک توییت نیشابور:
https://twitter.com/bneyshabur/status/1605677285255675904
#tweet
#read
@nlp_stuff
|
You want to get into AI and computer vision but don’t know where to begin?
Here are some of the lessons I learned that will help you get started.
Unless you’re looking to become the next Geoffrey Hinton or develop new algorithms, understanding the math behind AI is not all that important!
Instead focus on developing an intuitive understanding of neural networks. I hear you thinking, but how? Well, start by spending a lot of time training networks! Which means you should stay away from ‘Easy Button’ platforms that do all the training for you (like Google AutoML), at least until you know what you are doing.
Try out different public datasets and perform your own experiments by changing learning rates, removing samples or try alternative optimizers.. Sit there watching epoch by epoch, seeing how networks converge. Over time you will develop a feel for the training process and most likely a profound love for ‘early stoppage’.
Learn Python (NumPy!) and OpenCV. If ever there were two technologies critical to daily life as a data scientist, it’s them. Now I don’t mean you have to learn their manuals front to back. Instead focus on the basics, enough so that you can understand open source projects and example code. The rest will come with time.
There are a lot of different AI training frameworks, but in reality you only need one: PyTorch. It’s the most amazing machine learning framework out there and most papers are implemented in it. Stay away from TensorFlow, it’s a hot mess and will do nothing but upset you.
Don’t bother chasing the latest and greatest algorithms. Yes, it’s important to stay up to date and read. But not everything under the sun is worth implementing. Develop a list of your favorite architectures and just stick with them.
Want to know the secret to what makes a good architecture? A network that is not fancy! The best networks stick with very basic operations that have been around for years. Deploying models on your favorite device can be a real nightmare otherwise.
Finally I highly recommend that you participate in online competitions, such as Kaggle, where you can work on real-world data science and machine learning challenges. This will not only help you develop your skills, but also give you the opportunity to showcase your work and connect with others.
Are you still at the absolute beginning of your journey? You can start by following the excellent PyTorch tutorials at: https://pytorch.org/tutorials/beginner/basics/intro.html
#منابع
✳️ @ai_python
|
مدلها و دیتاستهای ComputerVision بر روی هاگینگ فیس
💨 Topics:
Supported vision tasks and Pipelines
Training your own vision models
Integration with timm
Diffusers
Support for third-party libraries
Datasets
⏩ Code:
HugsVision
Model documentation
Hugging Face notebooks
Hugging Face example scripts
Task pages
Timm
➡️ Computer Vision applications:
Generate 3D voxels from a predicted depth map of an input image
Open vocabulary semantic segmentation
Narrate videos by generating captions
Classify videos from YouTube
Zero-shot video classification
Visual question-answering
Use zero-shot image classification to find best captions for an image to generate similar images
🤗 AutoTrain
AutoTrain
Image classification
Automatic model evaluation
🦾 Zero-shot models
CLIP
OWL-ViT
CLIPSeg
GroupViT
X-CLIP
🚀 Deployment
Deploying TensorFlow Vision Models in Hugging Face with TF Serving
Deploying ViT on Kubernetes with TF Serving
Deploying ViT on Vertex AI
Deploying ViT with TFX and Vertex AI
✅ Full list
#منابع #بینایی_کامپیوتر
🗨 @AI_Python
|
✔️ معرفی #منابع_آموزشی پیشنهادی برای یادگیری هوش مصنوعی
#Ai #Deep_Learning #Machine_learning
#یادگیری_عمیق #هوش_مصنوعی
#یادگیری_ماشین #شبکه_عصبی
✅ گام اول برای یادگیری هوش مصنوعی:
- فراگیری پایتون
- فراگیری یادگیری ماشین
📍یادگیری ماشین بااستفاده از scikit-learn 👈 لینک دوره
📍یادگیری ماشین با استفاده از پایتون 👈 لینک دوره
📍آموزش یادگیری ماشین 👈 لینک دوره
📍یادگیری ماشین با استفاده از scikit-learn-part1 👈 لینک دوره
📍مبانی مقدماتی تا پیشرفته یادگیری ماشین 👈 لینک دوره
✅ استفاده از منبع های مختلف دانشگاه ها و سایت های معتبر
📍 اصول و روش های هوش مصنوعی از دانشگاه استنفورد 👈 لینک دوره
📍 منابع آموزشی دانشگاه MIT 👈 لینک دوره
📍دوره هوش مصنوعی Saylor 👈 لینک دوره
📍منابع آموزشی موجود در سایت Edx 👈 لینک دوره
📍منابع اموزشی مقدمات هوش مصنوعی 👈 لینک دوره
📍 ویدیو های سخنرانی دانشگاه برکلی 👈 لینک دوره
📍 آموزش یادگیری عمیق Google 👈 لینک دوره
📍ویدیو آموزش یادگیری ماشین دانشگاه کارنگی ملون استاد لری وارسرمن 👈 لینک دوره
📍آموزش شبکه های عصبی برای هوش مصنوعی 👈 لینک دوره
✅ یادگیری نظریه های آمار، احتمال و ریاضی
📍آموزش جبر خطی 👈 لینک دوره
📍آموزش آمار و احتمال دانشگاه MIT 👈 لینک دوره
📍معادلات دیفرانسیل و چندگانه 👈لینک دوره ۱ لینک دوره ۲
📍آموزش نظریه گراف سایت coursera 👈 لینک دوره
📍آموزش روش های بهینه سازی دانشگاه استنفورد👈 لینک دوره
✅ ویدیوهای فارسی
📍آموزشهای فارسی یادگیری ماشین دکتر رضوی 👈 لینک
📍گروه فارسی پرسش و پاسخ هوش مصنوعی، یادگیری ماشین و یادگیری عمیق:
https://t.me/joinchat/ClyM2kZKfp0_jRXWpiQDkw
✅ برترین مقالات هوش مصنوعی و یادگیری ماشین:
@ai_python_arxiv
❇️ @AI_Python
|
✔️ معرفی #منابع پیشنهادی برای #یادگیری_عمیق
قدم اول برای یادگیری عمیق
#یادگیری_ماشین #پردازش_زبان_طبیعی #هوش_مصنوعی #آموزش #شبکه_عصبی_کانوولوشن #شبکه_عصبی #منابع
✅1 - فراگیری مفاهیم مقدماتی یادگیری ماشین
مباحث آموزشی دکتر هینتون و بنجیو و لکون
👈 لینک
✅ فیلم های اموزشی یادگیری ماشین و یادگیری عمیق دکتر رضوی
👈 لینک
✅ تسلط بر مباحث برنامه نویسی پایتون و کار با تنسرفلو وکراس
✅ تسلط بر مباحث ریاضیات و جبر از دانشگاه MIT
👈 لینک
✔️ معادلات ماتریسی یادگیری عمیق دانشگاه کالیفرنیا جنوبی
👈 لینک
✔️ استفاده از سایت بسیار مشهور که به وسیله پژوهشگران برتر هدایت میشود
fast.ai
👈 لینک
📚 2 - مطالعه منابع عمیق دانشگاه ها و...
یادگیری عمیق دانشگاه آکسفورد
👈 لینک 👈 لینک ۲ 👈 لینک ۳ 🖋فیلمهای این دانشگاه
❌ آموزش های شبکه ای کانولوشن و یادگیری ماشین و...
⁉️ لینک
❌ وبسایتی که آموزشها و مقالات را از سال ۲۰۱۲ تا ۲۰۱۶ قابل دسترس است
⁉️ لینک
❌ شبکه عصبی کانولوشن برای تشخیص بصری
⁉️ لینک
❌ پردازش زبان طبیعی برای یادگیری ماشین
⁉️لینک
❌ مدرسه تابستانی یادگیری عمیق مونترال
⁉️ لینک ۱ ⁉️ لینک ۲
❌ شبکه کانولوشن عصبی و شبکه عصبی
⁉️ لینک
🔍 یادگیری شبکه های عصبی جفری هینتون کورسرا
📘 کلاس شبکه های عصبی دانشگاه اوشربروک کانادا
👈لینک
📕منابع یادگیری ماشین دانشگاه کالتک برای یادگیری نظری ها
👈 لینک
📘 3- معرفی کتابها
Neural Networks and Deep Learning Book by Michael Nielsen
Deep Learning Book by Ian Goodfellow, Yoshua Bengio and Aaron Courville
📘 4- سایر منابع
CS231n Convolutional Neural Networks for Visual Recognition University of Stanford
Getting Started in Computer Vision by Mostafa S. Ibrahim he focus on GPU and ...
🗓 پردازش زبان طبیعی دانشگاه استنفورد
👈 لینک 👈لینک ۲
🗓 مطالعه مقاله درمورد حافظه شبکه
👈 لینک
📘 مطالعه مقاله پایه ای حافظه شبکه و NLP
👈 لینک
ویدیوهای شرکت DeepMind
👈 لینک
❇️ یادگیری عمیق تقویتی
👈 لینک کتابهای
❇️ فهم یادگیری LSTM
👈 لینک
❇️ اثر بخشی ناعادلانه RNN
👈 لینک
✔️ مدل های تولیدی
✅ مقاله جهت یادگیری مدلهای GANs
👈لینک
✅ یادگیری مدل VANs
👈 لینک
✅ مقاله نوشته شده دکتر Ian Goodfellow در مورد GAN
👈 لینک
✅ مقاله نوشته شده LAPGAN
👈 لینک
✅ مقاله نوشته شده در مورد DCGAN
👈لینک مقاله 👈 لینک کدها
✅ استفاده از روش DCGAN برای تصاویر کیفیت بالا
👈 لینک
✅ فیلم های یادگیری عمیق برای پردازش تصویر
👈 لینک
🌐 ساخت پروژه
👈 لینک دیتا
🌐 شناسایی و طبقه بندی تصاویر
👈 لینک ۱ 👈 لینک ۲
🌐 تحلیل احساسات با استفاده از RNN
👈لینک
و با استفاده از CNN
👈 لینک
🌐 کاربرد الگوریتم عصبی سبک هنری
👈لینک
🌐 ساخت موسیقی با استفاده از RNNs
👈 لینک
🌐 ساخت بازی پینگ پونگ با استفاده از یادگیری عمیق تقویتی
👈 لینک
✳️ استفاده از شبکه عصبی Rate a selfie
👈 لینک
✳️ استفاده از رنگ عکسهای سیاه و سفید با استفاده از یادگیری عمیق
👈 لینک
✳️ سایر منابع یادگیری عمیق از پژوهشگران برتر کارپاتی
👈 لینک مقالات
✳️ لینک یادگیری عمیق دانشگاه استنفورد
👈 لینک ۱ 👈 لینک ۲
✳️ یادگیری عمیق
👈 لینک
🔔@AI_Python
|
✅ معرفی #منابع پیشنهادی برای #یادگیری_ماشین #آموزش #دکترـرضوی
«قدم اول یادگیری زبانهای برنامه نویسی R و Python و Weka که در بیشتر موارد نرم افزار پایتون بهترین گزینه جهت انجام همه این کار ها است»
#یادگیری_عمیق #پردازش_زبان_طبیعی
✅ دنبال کردن کلاس آموزشی دکتر رضوی
👈 کلاس آموزشی دکتر رضوی
❇️@AI_Python
🌐 آموزشهای یادگیری علم داده دانشگاه هاروارد
👈 لینک
👈 لینک آموزش فایلهایی ویدیویی
👈 تمرینات
🌐 آموزش های ویدیویی یادگیری ماشین دانشگاه استنفورد
👈 لینک
🌐 کتابهای آموزشی یادگیری آماری جهت فراگیری یادگیری ماشین
👈 فایل pdf
👈 فایل pdf 2
🌐 فراگیری آموزش احتمال که توسط سایت Edx برگزار شده است
👈 لینک
❎یادگیری کلان داده با استفاده آپاچی اسپارک
👈 لینک
❎ یادگیری مباحث ریاضیاتی نظیر جبرخطی و معادلات دیفرانسیل
👈 لینک
❎ یادگیری آموزشهای تقویتی یادگیری ماشین و یادگیری عمیق دانشگاه برکلی
👈 لینک
❎ مطالعه مقالات و یادگیری آموزش الگوریتم های پیشنیاز یادگیری ماشین
👈 لینک
❎ معرفی کتاب
✔️ Bishop's Pattern Recognition and Machine Learning
✔️ Introduction to Probability by John N. Tsitsiklis
✔️ Larry Wasserman's All of Statistics: A Concise Course in Statistical Inference
✔️ Joel Grus' Data Science from Scratch: First Principles with Python
✔️ Brett Lantz's Machine Learning with R
✔️ Willi Richert & Luis Pedro Coelho's Building Machine Learning Systems with Python
✔️ Nick Pentreath's Machine Learning with Spark
✔️ Learning From Data by Yaser S. Abu-Mostafa
❇️@AI_Python
📎 استنتاج بیزی و یادگیری ماشین دانشگاه کمبریج
👈 لینک
📎 یادگیری ماشین و دیدگاه احتمالی دانشگاه بریتیش کلمبیا
👈 لینک
📎 چگونه از دیتا یاد بگیریم دسترسی به کتابها و مطالب دانشگاه Caltech
👈 لینک
🌐 معرفی الگوریتم های خطی و غیر خطی یادگیری ماشین
Linear Algorithm
Gradient Descent
Linear Regression
Logistic Regression
Linear Discriminant Analysis
Nonlinear Algorithms
Classification And Regression Trees, Naive Bayes, KNN,Learning Vector Quantization, Support Vector Machines, Bagging and Random Forest,Boosting and AdaBoost
❇️@AI_Python
|
مهمترین مطالبی که پژوهشگران، دانشجویان و دانش آموزان برای آشنایی و شروع فعالیت در زمینه الگوریتمهای هوش مصنوعی بایستی فرابگیرند. با عضویت در کانال @ai_python جدیدترین و موضوعات روز را پیگیری کنید. با تشکر از همراهی سبزتان.
🔰 آموزش الگوریتمهای یادگیری ماشین
🔰 کورس رایگان در حوزه دیتاساینس و یادگیری ماشین و پردازش زبان طبیعی و یادگیر عمیق
🔰 یادگیری ماشین و NLP و پایتون
🔰 اسلاید سخنرانی ها در مورد یادگیری عمیق
🔰 شبکه های عصبی جفری هیتون
❎ کلاس یادگیری ماشین دانشگاه کلمبیا
❎ آموزش الگوریتمها NLP
❎ آموزش پایتون دکتر Chuck
❎ طریقه استفاده از الگوریتمهای ML
♻️ کلاس آموزشی RL
♻️ فیلم ML شرکت فیسبوک
♻️ فیلم های دکتر رضوی
♻️ آموزش عملی ANN در پایتون
♻️ چگونگی ساخت RNN در پایتون
🏧 نقشه راه ML
🏧 منابعی جامع از ML
🏧 16 منبع آموزشی الگوریتمهای AI
🏧 یادگیری تقویتی عمیق :تعاریف و تاریخچه
♨️ یادگیری ماشین برای مبتدیان
♨️ پاکسازی دیتاها در ML
♨️ ملزومات فراگیری برای الگوریتمهای یادگیری ماشین مزایا و کاراییها
♨️ فیلم کنفرانسهای مطرح هشتگ کنفرانس و مقاله سرچ کنید
♨️ آموزشی پیشرفته ای NLP در ژوپیتر
📣 یادگیری غیرنظارتی برای همه
📣 الگوریتمهای یادگیری ماشین :برآوردگرها ,تابع زیان
📣 یادگیری کورسهای fastai
📣 ریاضیات یادگیری عمیق شبکه های عصبی به زبان ساده
📣 آموزش CNN به زبان ساده
🔸 آموزش مقدماتی یادگیری ماشین برای همه سنین
🔸 آموزش ML بدون پیش زمینه ریاضیاتی
🔸 10 کتاب برای یادگیری ML هشتگ کتاب سرچ کنید
🔸 چگونه به وسیله الگوریتمهای یادگیری عمیق مسایل را حل کنیم ؟
🔸 خلاصه الگوریتمهای ML
🔸آموزشهای جامع از AI
✔️ آموزش درک زبان طبیعی دانشگاه استنفورد ۲۰۱۹
✔️ آموزش DataScience و آموزش
✔️ آموزش مقدماتی مدلهای GAN در پایتون
|
10 YouTube videos for anyone starting with machine learning.
On libraries, algorithms, and tools:
1. Notebooks are a fantastic way to code, experiment, and communicate your results. Take a look at Corey Schafer fantastic 30-minute tutorial on Jupyter Notebooks. https://m.youtube.com/watch?v=HW29067qVWk
2. The Pandas library is the gold standard to manipulate structured data. Check out Joe James "Pandas Tutorial. Intro to DataFrames."
https://m.youtube.com/watch?v=HW29067qVWk
3. Data visualization is key for anyone practicing machine learning.
Check out Blondiebytes's "Learn Matplotlib in 6 minutes" tutorial.
https://youtu.be/nzKy9GY12yo
4. Another trendy data visualization library is Seaborn. Derek Banas put together "Seaborn Tutorial 2020," which is highly recommend. https://youtu.be/6GUZXDef2U0
5. Numpy is another Python library that you will use every single day.
Keith Galli's "Complete Python NumPy Tutorial" is a great start. https://youtu.be/6GUZXDef2U0
6. One of the most basic algorithms that you can learn is Decision Trees.
Watch Josh Gordon's video where he builds a decision tree from scratch. https://youtu.be/LDRbO9a6XPU
7. It's hard to talk about the Machine learning without touching on Neural Networks. Probably the best video out there that explains how neural networks work is 3blue1brown's: https://m.youtube.com/watch?v=aircAruvnKk
8. Scikit-Learn is one of the most popular machine learning libraries out there. Simplilearn's "Scikit-Learn Tutorial" is a great place to start. https://youtu.be/0Lt9w-BxKFQ
9. TensorFlow is the most popular deep learning library that's currently used in the industry. Here is a massive 7-hour tutorial of TensorFlow 2.0 produced by Free Code Camp. https://youtu.be/tPYj3fFJGjk
10. Finally, a great way to start getting familiar with machine learning is the bite-sized recipes published by Google. This series is worth every minute. Playlist: https://m.youtube.com/watch?v=cKxRvEZd3Mw&list=PLOU2XLYxmsIIuiBfYad6rFYQU_jL2ryal
✅ @AI_Python
|
📌 تعدادی از ابزارهای هوش مصنوعی که توی جعبه ابزارتون نیاز میشه!
Here are the top AI tools you NEED to know about.
1. Krisp: Krisp's AI removes background voices, noises, and echo from your calls, giving you peace of call
Link: https://krisp.ai/
2. Beatoven: Create unique royalty-free music that elevates your story
Link: https://www.beatoven.ai/
3. Cleanvoice: Automatically edit your podcast episodes
Link: https://cleanvoice.ai/
4. Podcastle: Studio quality recording, right from your computer
Link: https://podcastle.ai/
5. Flair: Design branded content in a flash
Link: https://flair.ai/
6. Illustroke: Create killer vector images from text prompts
Link: https://illustroke.com/
7. Patterned: Generate the exact patterns you need for and design
Link: https://www.patterned.ai/
8. Stockimg: Generate the perfect stock photo you need, every time
Link: https://stockimg.ai/
9. Copy: AI Generated copy, that actually increases conversion
Link:https://www.copy.ai/
10. CopyMonkey: Create Amazon listings in seconds
Link: http://copymonkey.ai/
11. Ocoya: Create and schedule social media content 10x faster
Link: https://www.ocoya.com/
12. Unbounce Smart Copy: Write high-performing cold emails at scale
Link: https://unbounce.com/
13. Vidyo: Make short-form vids from long-form content in just a few clicks
Link: https://vidyo.ai/
14. Maverick: Generate personalized videos at scale
Link:https://lnkd.in/dmrkz_ah
15. Quickchat: AI chatbots that automate customer service charts
Link: https://www.quickchat.ai/
16. Puzzle: Build an AI-powered knowledge base for your team and customers
Link: https://www.puzzlelabs.ai/
17. Soundraw: Stop searching for the song you need. Create it.
Link: https://soundraw.io/
18. Cleanup: Remove any wanted object, defect, people, or text from your pictures in seconds
Link: https://cleanup.pictures/
19. Resumeworded: Improve your resume and LinkedIn profile
Link: https://lnkd.in/d9EurcnX
20. Looka: Design your own beautiful brand
Link: https://looka.com/
21. theresanaiforthat: Comprehensive database of AIs available for every task
Link: https://lnkd.in/dKhqaaF3
22. Synthesia: Create AI videos by simply typing in text.
Link: https://www.synthesia.io/
23. descript: New way to make video and podcasts
Link: https://lnkd.in/d_Kdj35E
24. Otter: Capture and share insights from your meetings
Link: https://otter.ai/
25. Inkforall: AI content (Generation, Optimization, Performance)
Link: https://inkforall.com/
26. Thundercontent: Generate Content with AI
Link: https://lnkd.in/djFxMZsZ
#RealWorldProjects #AiToolBox
@ai_python
|
📽 مجموعه ای از ویدیوهای آپارات و OCW دانشگاه شریف
هوش مصنوعی - دکتر رهبان
https://lnkd.in/dky6WZeP
ماشین لرنینگ - دکتر رهبان
https://lnkd.in/dKbUXN_x
فرایند تصادفی - دکتر رهبان
https://lnkd.in/d8Ecqw3Q
پردازش هوشمند تصاویر زیست-پزشکی
https://lnkd.in/dwazQNTH
https://lnkd.in/dCDJPeQt
ReACT 2023
https://lnkd.in/dFZXqcew
IWCIT 2022
https://lnkd.in/dH7Hqani
آمار و احتمال مهندسی - دکتر امینی
https://lnkd.in/diuancHJ
تشخیص الگو - دکتر فاطمی زاده
https://lnkd.in/dScHFtje
خلاقیت الگوریتمی و برنامهنویسی پایتون (مخصوص دانشآموزان متوسطهی اول و دوم) - در حال تکمیل
https://lnkd.in/d-7C8bdS
الگوریتم های بیوانفورماتیک - دکتر شریفی زارچی
https://lnkd.in/dyWrqGn8
داده ساختارها و مبانی الگوریتم ها - دکتر شریفی زارچی
https://lnkd.in/dG5JhGzC
بیو انفورماتیک پیشرفته - دکتر شریفی زارچی
https://lnkd.in/dQbvnXsm
یادگیری ماشین - دکتر سلیمانی
https://lnkd.in/dwPEBD-6
هوش مصنوعی- دکتر سلیمانی
https://lnkd.in/dQGsuwjT
یادگیری برخط - محمدهادی فروغمند -کسری علیشاهی
https://lnkd.in/dVCEbguf
مباحثی در علوم داده (یادگیری بندیت) -
https://lnkd.in/dWA8wiKM
بهینه سازی در علوم داده ها - محمدهادی فروغمند
https://lnkd.in/dPtdmGUi
مباحثی در آمار (روشهای بیزی در آمار و یادگیری) - کسری علیشاهی
https://lnkd.in/dbb6ANd7
بهینه سازی محدب - مجتبی تفاق
https://lnkd.in/d7h4bqs5
یادگیری تقویتی - کسری علیشاهی
https://lnkd.in/d8S7m86N
مقدمه ای بر بیوانفورماتیک (تحلیل داده های زیستی) - علی شریفی زارچی
https://lnkd.in/dWkZbMcn
👤 Babak Khalaj
@ai_python
|
یادگیری ماشین به شیوه Reinforcement Learning یکی از تکنیک هایی هست که کاربردهای بسیاری به خصوص در صنعت رباتیک 🤖 🤖 داره. پلی لیست زیر که حدود 2 سال پیش در یوتیوب منتشر شده ، چشم انداز مناسبی در رابطه با RL در اختیار ما قرار می دهد :
Reinforcement Learning - Fall 2021
@ai_python
سرفصل ها :
🎓 Introduction to RL
🎰 Multi-armed Bandits
📈 Policy Gradient Methods
🎯 Contextual Bandits
🔄 Finite Markov Decision Process
💻 Dynamic Programming
🔄 Policy Iteration, Value Iteration
🎲 Monte Carlo Methods
پی نوشت برای مبتدی ها و علاقه مندان : RL مثل این می مونه که ماشین با شیوه پاداش و تنبیه راه حرکت کردن توی یک هزارتو رو یاد بگیره. یعنی هر چی به هدف نزدیک تر شد پاداش بگیره و هر چه قدر به بن بست نزدیک شد ، جریمه بشه.
اگه بیش تر به مثالی که گفتم فکر کنید ، می تونید تصور کنید چرا توی رباتیک کاربرد داره. برای مثال آموزش راه رفتن به ربات ها، ماشین های خودران، بازی سازی (حتی مسائل ساده تری مثل بازی شطرنج) و شاید به نظر من یکی از مهم ترین کاربردها در صنعت Health Care برای شخصی سازی پلن های درمان و در نهایت حوزه مالی 🤑🤑 و حتی خود NLP !!!
خلاصه که فعلن جا برای مطالعه و یادگیری زیاد داره 🔖
|
🇦🇹 اولین وبینار تخصصی معرفی فرصت های تحصیلی در مقطع لیسانس برای علاقه مندان به رشته علوم کامپیوتر و علاقه مندان به تحصیل در کشور اتریش
آیا می دانید ، شما فقط با قبولی کنکور در دانشگاه های ایران به عنوان مدرک تحصیلی ، می توانید از دانشگاه ملی وین در اتریش، به رایگان و بدون کمک گرفتن از موسسات مهاجرتی، پذیرش تحصیلی بگیرید؟ 🤩
وبینار پرسش و پاسخ و معرفی شرایط تحصیل در رشته علوم کامپیوتر در دانشگاه های کشور اتریش : 🗓 1 اسفند 1402 - 20 فوریه 2024 📆
⏰ ساعت 19:30 به وقت تهران ⏱
هزینه شرکت در این وبینار برای اعضای گروه پرسش و پاسخ علوم کامپیوتر فقط 1 میلیون تومان 😍 (پرداخت اجباری نیست و فقط برای امکان تداوم کار دریافت می شود)
➕ دانشگاه های شهر وین در اتریش برای رشته علوم کامپیوتر
➕ شرایط پذیرش در دانشگاه های وین برای رشته علوم کامپیوتر
➕ شرایط ویزا در کشور اتریش برای تحصیل در رشته علوم کامپیوتر
➕ آزمون ورودی رشته علوم کامپیوتر برای دانشگاه ملی وین و دانشگاه تکنیک وین
🇪🇺 اطلاعات بیش تر درباره شرایط ویزا و اقامت در اتریش برای دانشجویان در گروه فارسی زبانان اروپا 🏰
ارتباط و ثبت نام
لینکداین برگزار کننده وبینار
توییتر
اینستاگرام
|
🇦🇹 اولین وبینار تخصصی معرفی فرصت های تحصیلی در مقطع لیسانس برای علاقه مندان به رشته علوم کامپیوتر و علاقه مندان به تحصیل در کشور اتریش
آیا می دانید ، شما فقط با قبولی کنکور در دانشگاه های ایران به عنوان مدرک تحصیلی ، می توانید از دانشگاه ملی وین در اتریش، به رایگان و بدون کمک گرفتن از موسسات مهاجرتی، پذیرش تحصیلی بگیرید؟ 🤩
وبینار پرسش و پاسخ و معرفی شرایط تحصیل در رشته علوم کامپیوتر در دانشگاه های کشور اتریش : 🗓 1 اسفند 1402 - 20 فوریه 2024 📆
⏰ ساعت 19:30 به وقت تهران ⏱
هزینه شرکت در این وبینار برای اعضای گروه پرسش و پاسخ علوم کامپیوتر فقط 1 میلیون تومان 😍 (پرداخت اجباری نیست و فقط برای امکان تداوم کار دریافت می شود)
➕ دانشگاه های شهر وین در اتریش برای رشته علوم کامپیوتر
➕ شرایط پذیرش در دانشگاه های وین برای رشته علوم کامپیوتر
➕ شرایط ویزا در کشور اتریش برای تحصیل در رشته علوم کامپیوتر
➕ آزمون ورودی رشته علوم کامپیوتر برای دانشگاه ملی وین و دانشگاه تکنیک وین
🇪🇺 اطلاعات بیش تر درباره شرایط ویزا و اقامت در اتریش برای دانشجویان در گروه فارسی زبانان اروپا 🏰
ارتباط و ثبت نام
لینکداین برگزار کننده وبینار
توییتر
اینستاگرام
|
@ai_python
از زمان عمومی شدن استفاده از چت جی پی تی، نگرانی های زیادی در قشر آکادمیک پیدا شد.
اکنون بعد از نزدیک به ۱ سال و چند ماه، برخی از دانشگاه های مهم اتریش، از جمله اف ها وین و دانشگاه و کا و تصمیم گرفتند که از پاییز ۲۰۲۴ شیوه بچلر آربایت را تغییر دهند.
@ai_python
بچلر آربایت در اتریش و آلمان به نوعی پایان نامه دوره لیسانس محسوب می شود. که بر اساس قانون یک داکیومنت نوشتاری حدود ۶۰ صفحه ای بود.
اکنون این دو دانشگاه اعلام کرده اند که آن را با نوعی پروژه تحقیقاتی در گروه های ۱۰ تا ۱۲ نفره جایگزین خواهند کرد.
@ai_python
البته با توجه به محدودیت های قانونی حذف کامل فرمت نوشتاری در حال حاضر ممکن نیست. اما قرار است بخش نوشتاری از این به بعد داکیومنتیشنی از کار انجام شده باشد.
پس از ارسال پست روزنامه اشتاندارد که در تصویر آن را در اینستاگرام می بینید، این تصمیم از سوی دانشجو ها مورد استقبال واقع نشد. در واقع در بخش نظرات می توانید دلایل بسیار زیادی برای مخالفت با این تصمیم بخوانید.
همین طور سوالی که برای خود من پیش اومده، اینه که آیا این تصمیم تحصیل رو برای دانشجویان طیف اوتیسم و نورودایورجنت ها سخت تر نخواهد کرد؟
نظر شما چیه؟
|
ERROR: type should be string, got "https://arxiv.org/abs/2308.02312\n\n@ai_python\n\nQ&A platforms have been crucial for the online help-seeking behavior of programmers. However, the recent popularity of ChatGPT is altering this trend. Despite this popularity, no comprehensive study has been conducted to evaluate the characteristics of ChatGPT's answers to programming questions. To bridge the gap, we conducted the first in-depth analysis of ChatGPT answers to 517 programming questions on Stack Overflow and examined the correctness, consistency, comprehensiveness, and conciseness of ChatGPT answers. Furthermore, we conducted a large-scale linguistic analysis, as well as a user study, to understand the characteristics of ChatGPT answers from linguistic and human aspects. Our analysis shows that 52% of ChatGPT answers contain incorrect information and 77% are verbose. Nonetheless, our user study participants still preferred ChatGPT answers 35% of the time due to their comprehensiveness and well-articulated language style. However, they also overlooked the misinformation in the ChatGPT answers 39% of the time. This implies the need to counter misinformation in ChatGPT answers to programming questions and raise awareness of the risks associated with seemingly correct answers."
|
@ai_python
زمانی که ایران، کار و زندگی می کردم، یک رویکرد عمومی بین متخصصین بسیاری از حوزه ها وجود داشت و اون این که بسیاری از ما ( از جمله خودم ) عقیده داشتیم در خارج از ایران، یا بهتره بگم حداقل در کشورهای پیشرو تر، مثل آمریکا و کشورهای اروپایی رویکرد عمومی در سازمان ها و کسب و کارهای حوزه اینفورماتیک و تکنولوژی، بر میکروتخصص گرایی است.
یعنی چی؟ یعنی برای مثال ممکنه در شبکه های اجتماعی بسیار دیده باشید، که یک آگهی شغلی ایرانی را مسخره می کنند به این دلیل که از یک متخصص انتظار دارند که هم زمان که به سیسکو مسلط هست، به برنامه نویسی هم مسلط باشد، یا در کنار آن برای مثال متخصص VoIP باشد.
@ai_python
یا ممکن بود در یک آگهی ببینیم که متخصص هوش مصنوعی نیاز دارند که به یکی یا همه فریم ورک های جاوا هم مسلط باشد و همزمان متخصص انواع سرویس های کلاود باشد.
در واقع این یکی از اولین شوک های من در زمانی بود که به اتریش مهاجرت کردم: در اولین مصاحبه شغلی زمانی که من فکر می کردم که دانش آن زمان من در خصوص یک موضوع (فرض بگیرید تخصص X ) برای گرفتن جایگاه شغلی در سازمان بزرگی که چند 10 متخصص دیگر در حوزه های مکمل داشت، کافی باشد، با سوالات زیادی از طرف تیم 4 یا 5 نفره ای که با من مصاحبه می کردند مواجه شدم که اصلن در حوزه تخصص X نمی گنجیدند.
بماند که خواستم از زیر سوالاتشون با ترفند : هنوز به راحتی نمی توانم این ها را به زبان آلمانی توضیح دهم، فرار کنم ... و آن ها مچم را با این که ایرادی ندارد و به انگلیسی بگو، یا حتی روی لپ تاپ انجام بده گرفتند. 😵💫
به هر حال بعد از این مصاحبه با خودم گفتم، حتمن این سازمان خاص به این شکل است. اما رفته رفته هرچه قدر بیش تر مصاحبه رفتم و بیش تر به عنوان یک جویای کار جدی ، توضیحات آلمانی و انگلیسی جایگاه های شغلی را مرور کردم، بیش تر هم به این نتیجه رسیدم که این افسانه که در خارج از ایران فقط از ما توقع یک تخصص خاص را دارند، صحت ندارد.
البته امروز دلیل آن را نیز درک می کنم. دلیل آن این است که مدیریت هزینه بحث بسیار جدی برای پابرجایی هر نوع کسب و کاری که بگویید است. چه آن کسب و کار رولکس باشد، چه کلاود فلر که بعدها با آن ها هم برای جایگاه ساده پشتیبانی مصاحبه کردم و چه یک استارت آپ ابتدایی با هزینه بسیار محدود.
امروز که توییت قابل مشاهده در تصویر را از Adam Grant روان شناس سازمانی دیدم، یاد این مطلب افتادم و از آن جایی که روزانه تعداد بسیار بالایی که اتریش را به عنوان مقصد مهاجرت شان انتخاب کرده اند از من درباره اینکه برای آینده شغلی بهتر در اتریش و امکان ورود سریع به بازار کار سوال می پرسند، تصمیم گرفتم این موضوع و تجربه را عنوان کنم. البته تجربه من محدود به اتریش و طبیعتن کسب و کارهایی که من 6 سال پیش برایشان درخواست کار می فرستادم هست.
@ai_python
شاید در کامنت های این پست نقطه نظرات و تجربیات دیگری را نیز بیابید.
ولی توجه شما را به این تصویر بسیار زیبا و کپشن بسیار ارزشمند Adam Grant جلب می کنم. این که ما در نهایت به تمام طیف جنرالیست ها و اسپشیالیست ها نیاز داریم.
ممکن است به طور کلی همچنان این حقیقت داشته باشد که سازمان های بزرگ تر بیش تر ( نه تمامن ) جذب کننده Specialist ها خواهند بود و کسب و کارهای نوپا با بودجه محدود به دنبال Generalist ها. اما وجود هر دو برای دوام یک سازمان یا اکوسیستم تجاری ضروری و مورد نیاز است. 👨💻
لینک توییتر Adam Grant
|
اون چیزی که امروز به عنوان Agentic AI می شناسیم خیلی خیلی گسترده س و کارهای بسیار زیادی می شه باهاش کرد در بُعد Production
@ai_python
برای اینکه این گستردگی رو درک کنیم بهتره ببینیم که اصلن چه نوع Tool هایی در Agentic AI در اختیارمون هست؟
Information Retrieval Systems like RAG:
👨💻 خود سیستم های Retrieval مثل انواع RAG جز Tool ها محسوب می شوند. ممکنه در یک برنامه صنعتی یا کاربردی شما مجبور به استفاده از چند سیستم مختلف RAG برای کاربردهای متنوع شوید.
مثلن : یک RAG برای خواندن قرارداد ها
یک RAG برای استخراج داده از فاکتورهای فروش و الی آخر که در زمان مناسب توسط Orchestrator فرا خوانده خواهند شد.
@ai_python
Data stores providing CRUD operations:
ابزارهایی که با استفاده از آن ها می توانید با دیتای بانک های داده مختلف کار کنید. از کتابخانه های مستتر در LangChain گرفته تا ابزارهایی که حتی بسته به نیاز خودمان می توانیم در داخل برنامه آن ها را کد نویسی کنیم. در این بین از کاربرد Function Calling نباید غافل شد.
Function that take inputs and provide outputs:
توابع مختلف که خودمان می توانیم به صورت سفارشی برای محصول مان بنویسیم و Orchestrator در زمان مناسب تصمیم می گیرد که از آن ها استفاده کند.
Microservices that collaborate with the agentic AI system
برای مثال می توانید از ویژگی های portkey به عنوان یک میکروسرویس میزبانی شده بر روی کلاود فلر استفاده کنید و به راحتی درخواست های مختلف را به مدل های اختصاصی هر درخواست ارجاع دهید!
GenAI models for image generation, video analysis, translation, etc. 🖥
قطعن مدل های دیگر نیز خود یک Tool محسوب می شوند.
@ai_python
Cloud platforms (SaaS, IaaS, PaaS)
امکانات و سرویس های مختلفی که بر روی Cloud وجو دارند.
Another agentic AI system
و در نهایت فراموش نکنیم که حتی یک سیستم Agentic AI دیگر نیز می تواند به عنوان Tool در محصول ما استفاده شود.
|
@ai_python
https://www.arxiv.org/abs/2409.19924
Recent advancements in Large Language Models (LLMs) have showcased their ability to perform complex reasoning tasks, but their effectiveness in planning remains underexplored. In this study, we evaluate the planning capabilities of OpenAI's o1 models across a variety of benchmark tasks, focusing on three key aspects: feasibility, optimality, and generalizability. Through empirical evaluations on constraint-heavy tasks (e.g., Barman, Tyreworld) and spatially complex environments (e.g., Termes, Floortile), we highlight o1-preview's strengths in self-evaluation and constraint-following, while also identifying bottlenecks in decision-making and memory management, particularly in tasks requiring robust spatial reasoning. Our results reveal that o1-preview outperforms GPT-4 in adhering to task constraints and managing state transitions in structured environments. However, the model often generates suboptimal solutions with redundant actions and struggles to generalize effectively in spatially complex tasks. This pilot study provides foundational insights into the planning limitations of LLMs, offering key directions for future research on improving memory management, decision-making, and generalization in LLM-based planning.
Code: https://github.com/VITA-Group/o1-planning
|
این لینک رو گذاشته بودم قبلن؟
@ai_python
https://youtu.be/9vM4p9NN0Ts?si=ej9z95_opfsM2RRn
For more information about Stanford's Artificial Intelligence programs visit: https://stanford.io/ai
This lecture provides a concise overview of building a ChatGPT-like model, covering both pretraining (language modeling) and post-training (SFT/RLHF). For each component, it explores common practices in data collection, algorithms, and evaluation methods. This guest lecture was delivered by Yann Dubois in Stanford’s CS229: Machine Learning course, in Summer 2024.
Yann Dubois
PhD Student at Stanford
https://yanndubs.github.io/
About the speaker: Yann Dubois is a fourth-year CS PhD student advised by Percy Liang and Tatsu Hashimoto. His research focuses on improving the effectiveness of AI when resources are scarce. Most recently, he has been part of the Alpaca team, working on training and evaluating language models more efficiently using other LLMs.
To view all online courses and programs offered by Stanford, visit: http://online.stanford.edu
|
در این سخنرانی، خانم چیانکیان شی درباره پروژه Me-LLaMA صحبت میکند؛ یک مدل زبانی بزرگ و تخصصی در حوزه پزشکی که با آموزش مدلهای LLaMA به کمک دادههای گسترده و تخصصی، عملکرد قابل توجهی در تحلیل متون پزشکی ارائه میدهد. این مدل که از ۱۲۹ میلیارد توکن و ۲۱۴ هزار نمونه دستورالعملهای آموزشی بهره برده، با بیش از ۱۰۰ هزار ساعت GPU آموزش دیده است و در مقایسه با دیگر مدلها از جمله GPT-4 در بسیاری از دادهسنجیها عملکرد بهتری دارد. Me-LLaMA برای تحلیل متون پزشکی در شش زمینه و با استفاده از ۱۲ مجموعه داده مختلف مورد ارزیابی قرار گرفته و نتایج بالاتری نسبت به مدلهای اوپن سورس و تجاری دیگر نشان داده است. این مدل به صورت عمومی با شرایط خاص در دسترس است. منظورم از شرایط خاص appropriate user agreements هستش.
@ai_python
درباره سخنران: محقق در دانشگاه ییل است که بر پردازش زبان طبیعی و کاربردهای آن در پزشکی تمرکز دارد. او برنده جایزهی "Pathway to Independence Award" است و بیش از ۵۰ مقاله علمی منتشر کرده است.
@ai_python
جلسات MedAI Group Exchange: این جلسات هفتگی به میزبانی گروه MedAI و با مشارکت اعضای آزمایشگاه روبین و آزمایشگاه MI-2 دانشگاه استنفورد برگزار میشود. در این جلسات، سخنرانان درباره تحقیقات خود صحبت کرده و با حضار به بحث و پرسش و پاسخ میپردازند. برای اطلاع از جلسات آینده میتوانید به سایت MedAI یا توییتر آنها مراجعه کرده و به لیست ایمیل بپیوندید. لینک ویدیو :
https://www.youtube.com/watch?v=V5FZBQMGSog
|
یهو یادم اومد زمانی که من تازه اومدم اتریش ، یه پلت فرمی داشت مایکروسافت که اپلای می کردیم و اگر قبول می شدیم، به سوالات ملت توی Microsoft Community به آلمانی جواب می دادیم و بابتش بهمون پول می دادن.
@MigrationEasy
البته داستان این بود که باید با هندی های بسیاری که اونا هم زبان آلمانی بلد بودن رقابت می کردی. (توی زبان های دیگه ش هم می تونید اپلای کنید، اگر بلدید)
خلاصه لینک اپلایش رو می ذارم برای دوستان زیادی که تازه مهاجرت کردن از ایران به یک کشور جدید و خیلی پیغام می دن و می گن که ما ایران هلپ دسک یا کارشناس آی تی بودیم. البته من شخصن اون زمان نتونستم اون قدری که باید و شاید براش وقت بذارم با وجود دغدغه های خود مهاجرت و کم کم اکانتم غیر فعال شد و شاید حداکثر درآمدم هم از این راه در ماه فقط 300 یورو بود ( اون زمان پرداخت ها هفتگی بود ) چون خیلی سخته که با اکانت های هندی رقابت کنید و سوالات رو زودتر از اونا Accept کنید و درحالی که Accept می کنید مطمئن باشید که اون شخص رو تا انتها می تونید راهنمایی کنید.
https://microsoft-community.directly.com/apply/multi
یه نکته دیگه اینکه اون سایتی که بعد از قبولی در مرحله اپلای روش به سوالات پاسخ می دید به جز مایکروسافت کامیونیتی مشتری های دیگه هم داره. مثل شاتر استاک یا اوبر و ... که شاید بشه برای پاسخ به سوالات مشتری های اونا هم اپلای کرد.
|
این روزا خبری در توییتر داغ شده که یک یوتیوبر حوزه ماشین لرنینگ به نام Zara Dar تصمیم گرفته از پروگرم PhD خارج بشه و به صورت تمام وقت در OnlyFans مشغول به کار بشه.
@ai_python
البته برای خود من عجیبه که با این که همیشه ویدیو های ماشین لرنینگ از توی یوتیوب نگاه می کردم ، این قدری که ادعا شده ایشون مشهور بوده برای من ویدیو های این خانم پیشنهاد داده نمی شد 🤪 و اصن تا قبل از این خبر نمی شناختمشون.
@ai_python
بعد از این خبر رفتم که ویدیو های کانالش رو نگاه کنم و به نظرم نسبت به کانال های دیگه این حوزه خیلی کم تر بودن ! 👀
خلاصه اینم از اون داستان های جالبه که شاید حالا که تعطیلات کریسمس هست براتون دنبال کردنش جالب باشه.
این آدرس کانال یوتیوب ایشون هست :
https://www.youtube.com/@zara-dar
ظاهرن یه ریپازیتوری هم برای اطلاع نوتیف های OnlyFans درست کردن که در این لینک می تونید به گیت هابش دسترسی داشته باشید :
https://github.com/zaradarz/OnlyFans-Notification-Robot
شماها هیچ کدوم ایشون رو می شناختید تا قبل از این؟
اینم بگم که گفتن اگر چه که تمام وقت توی OnlyFans کار خواهند کرد، اما این امکان براشون فراهم می شه که به راحتی در کنارش تولید محتوای STEM-related و تدریس اون رو هم با فراغ بال از نگرانی های مالی ادامه بدن.
|
پادکست Real Python در خصوص رویکردهای Sentiment Analysis با پایتون در گفت و گو با Jodie Burchell که PhD در کلینیکال سایکولوژی داره ولی هم اکنون به عنوان دیتاساینتیست در JetBrains هم کار می کنه :
@ai_python
https://realpython.com/podcasts/rpp/232/
Topics: 🎙
00:00:00 – Introduction
00:02:31 – Conference talks in 2024
00:04:23 – Background on sentiment analysis and studying feelings
00:07:09 – What led you to study emotions?
00:08:57 – Dimensional emotion classification
00:10:42 – Different types of sentiment analysis
00:14:28 – Lexicon-based approaches
00:17:50 – VADER - Valence Aware Dictionary and sEntiment Reasoner
00:19:41 – TextBlob and subjectivity scoring
00:21:48 – Sponsor: Sentry
00:22:52 – Measuring sentiment of New Year’s resolutions
00:27:28 – Lexicon-based approaches links for experimenting
00:28:35 – Multiple language support in lexicon-based packages
00:35:23 – Machine learning techniques
00:39:20 – Tools for this approach
00:42:54 – Video Course Spotlight
00:44:15 – Advantages to the machine learning models approach
00:45:55 – Large language model approach
00:48:44 – Encoder vs decoder models
00:52:09 – Comparing the concept of fine-tuning
00:56:49 – Is this a recent development?
00:58:08 – Ways to practice with these techniques
01:00:10 – Do you find this to be a promising approach?
01:07:45 – Resources to practice with all the techniques
01:11:06 – Upcoming conference talks
01:11:56 – Thanks and goodbye
|
برترین کتابخانههای تخصصی پایتون
همواره یکی از چالشهای متخصصین علمداده انتخاب پلتفرم و کتابخانههای تحلیلی جهت پیادهسازی پروژهها بوده است. در ادامه برترین کتابخانههای زبان برنامهنویسی پایتون به تفکیک در حوزههای تحلیلداده، یادگیری ماشین، یادگیری عمیق و... معرفی شده است. قابل ذکر است که کتابخانههای برتر در هر دسته با علامت مشکی و Bold درج شدهاند.
🔹کتابخانههای تحلیلداده:
▪️Pandas
▪️Numpy
▫️SciPy
▫️StatsModels
🔹کتابخانههای یادگیری ماشین:
▪️Scikit Learn
▫️PyBrain
▫️XGBoost
▫️Eli5
🔹کتابخانههای پردازش زبان طبیعی:
▪️NLTK
▪️Hazm
▫️Gensim
▫️SpaCy
▫️fastText
🔹کتابخانههای مصورسازی:
▪️Matplotlib
▫️Bokeh
▫️Seaborn
▫️Plotly
🔹کتابخانههای یادگیری عمیق:
▪️Keras
▪️Tensorflow
▫️Theano
▫️Pytorch
🔹کتابخانههای تحلیل گراف:
▪️NetworkX
▫️igraph
▫️graph-tool
🔹کتابخانههای جمعآوری داده(خزشگر):
▪️Scrapy
▪️Urllib
▫️Selenium
▫️Requests
▫️Beautiful Soup
▫️lxml
🔹کتابخانههای پردازش تصویر:
▪️Scikit-image
▪️OpenCV
▫️Pillow
پینوشت:
جهت یادگیری هر از این کتابخانهها دورههای آموزشی، کتابها و Toturialهای تخصصی بسیاری در اینترنت وجود دارد.
🧠 آقای هوش مصنوعی 🧠
مرجع آموزش هوش مصنوعی ایران
@MrArtificialintelligence
|
فراخوان مقالات
Call for Paper
ششمین کنفرانس بینالمللی بازشناسی الگو و تحلیل تصویر
The 6th International Conference on Pattern Recognition and Image Analysis
(IPRIA 2023)
25 تا 27 بهمن ۱۴۰۱ دانشگاه تهران
http://ipria2023.ismvipconf.ir
ششمین کنفرانس بینالمللی بازشناسی الگو و تحلیل تصویر (IPRIA) در دانشکده مهندسی دانشکدگان فارابی دانشگاه تهران توسط انجمن بینایی ماشین و پردازش تصویر ایران با همکاری دانشگاه تهران در تاریخ ۲۵ تا ۲۷ بهمن ۱۴۰۱ برگزار میگردد. این کنفرانس مطابق روال دورههای گذشته محلی برای ارائهی آخرین یافتههای پژوهشگران و مباحثه پیرامون ایدههای آنها در حوزهی بازشناسی الگو، یادگیری ماشین، بینایی ماشین و تحلیل تصویر میباشد. متخصصان و پژوهشگران برای ارائهی ایدههای جدید و آخرین دستاوردهای خود به این کنفرانس دعوت میشوند. تمامی موضوعات مرتبط با حوزهی بازشناسی الگو، یادگیری ماشین، بینایی ماشین، تحلیل تصویر و کاربردهای آنها قابل قبول میباشند. مقالات این کنفرانس به انتخاب نویسنده به دو زبان فارسی و انگلیسی دریافت میشوند.
• مهلت دریافت مقالات: ۳۰ آبان ۱۴۰۱
تمدید شد: ۳۰ آذر ۱۴۰۱
|
📣 آغاز به کار کانال اختصاصی دانشگاه تهران در «لنز»
🔸 شبکه «تلویزیون اینترنتی دانشگاه تهران»، در جمع کانالهای اختصاصی تلویزیون اینترنتی لنز ایرانسل قرار گرفت.
🔸 شبکه تلویزیون اینترنتی دانشگاه تهران که با هدف اجتماعی کردن علم و حضور دانشگاه در حل مسألههای جامعه با بهکارگیری ظرفیتها و توانمندیهای استادان، فارغالتحصیلان و دانشجویان ایجاد شده است، رسانهای مستقل با تولیدات ویدیویی ارزنده، در حوزه دانشگاهی محسوب میشود. این شبکه طی همکاری با تلویزیون اینترنتی اولین و بزرگترین اپراتور دیجیتال ایران، محتواهای خود را از طریق کانال دانشگاه تهران، برای مخاطبان لنز پخش میکند.
🔸 راهاندازی کانال تلویزیون اینترنتی دانشگاه تهران در لنز، یکی از مفاد تفاهمنامهای است که ۳۱ خرداد ۱۴۰۲ طی مراسمی با حضور دکتر محمد مقیمی رئیس دانشگاه تهران و دکتر بیژن عباسیآرند مدیرعامل ایرانسل امضا شد.
🔸 علاقهمندان برای دسترسی به محتواهای شبکه دانشگاه تهران در تلویزیون اینترنتی اولین و بزرگترین اپراتور دیجیتال ایران، میتوانند به نشانی https://b2n.ir/t73058 مراجعه کنند.
ℹ️جزئیات بیشتر:
🌐https://irancell.ir/b/302266/b
@irancellnews1
|
🌑 آقای هوش مصنوعی🌑
🎥رسانه هوش مصنوعی دانشگاه تهران
📕 بنیاد رزبری نسل جدید برد کامپیوتری رزبری پای 5 رو بعد از چهار سال از نسل قبلی، رونمایی کرد.
رزبری پای 5 با چیپ جدید BCM2712 که دارای 4 هسته Cortex-A76 هست، سرعت اون 2 تا 3 برابر بیشتر شده و با 2 پورت micro HDMI میتونه به دو مانیتور 4K@60 به طور همزمان متصل بشه و ویدیوهای HEVC رو سخت افزاری دیکود کنه. ورودی MicroSD اون هم دو برابر سریعتر شده.
این برد دارای دو پورت USB 3.0، دو پورت USB 2.0، پورت گیگابیتی لن، وایفای 802.11ac، بلوتوث 5 هست و دو درگاه FPC برای اتصال نمایشگر و دوربین قرار داده.
رزبری برای اولین بار دکمه خاموش روشن، RTC برای نگهداری زمان و اسلات PCIe Gen 2.0 x1 اضافه کرده که امکان اتصال وسایل مختلفی از جمله SSDهای M.2 و حتی کارت گرافیک خارجی رو هم فراهم میکنه.
رزبری این برد جدید رو همراه با 4 گیگ رم LPDDR4X با قیمت 60 دلار و نسخه با 8 گیگ رم رو با قیمت 80 دلار از ماه اکتبر به بازار عرضه میکنه.
سایت پردازش تصویر ایران
مجله تحول دیجیتال و هوش مصنوعی
https://imageprocessing.ir/
کانال تلگرامی ما
@MrArtificialintelligence
|
شرکت گوگل از قدرتمندترین هوش مصنوعی خودش به نام Gemini برای رقابت با مدل GPT-4 رونمایی کرد.
به گفته مدیرعامل گوگل هوش مصنوعی Gemini نقطه عطفی برای این شرکت محسوب میشه و قدرت بالای اون روی تمام محصولات گوگل تاثیر خواهد گذاشت و اونهارو بهتر خواهد کرد.
هوش مصنوعی Gemini در سه مدل عرضه میشه:
مدل Nano کوچکترین و بهینه ترین اونهاست که میتونه به صورت افلاین در گوشیهای اندرویدی استفاده بشه.
مدل Pro مدل بهینه و سریعی هست که قدرتی در حد GPT 3.5 داره و در کارهای مختلف میشه از اون استفاده کرد و در طیف وسیعی از محصولات گوگل از جمله سرچ، کروم و غیره از اون استفاده خواهد شد.
مدل Ultra که رقیب GPT-4 هست، قویترین و پیشرفته ترین مدل ساخته شده توسط گوگله و برای حل دستورات پیچیده از اون استفاده خواهد شد.
برخلاف بقیه مدلها که عمدتا روی متن تمرین داده شدن، Gemini به طور ترکیبی روی متن، عکس، ویدیو و فایلهای صوتی تمرین داده شده بنابراین درک چند حسی بالایی داره و میتونه درخواستهایی همراه با ورودی متنی، تصویری و صوتی رو با دقت بالایی همراه با قدرت استدلال بالا جواب
@MrArtificialintelligence | رسانه هوش مصنوعی دانشگاه تهران
|
سه نسخه از Gemini برای کاربردهای مختلف به نام های Nano، Pro و Ultra ساخته شده که حجم و قابلیت آنها افزایش می یابد. گوگل از پاسخ دادن به سوالات مربوط به اندازه Pro و Ultra، تعداد پارامترهایی که شامل می شوند یا مقیاس یا منبع داده های آموزشی آنها خودداری کرد. اما کوچکترین نسخه آن، نانو، که برای اجرای محلی روی گوشی های هوشمند طراحی شده است، در واقع دو مدل است: یکی برای گوشی های کندتر با 1.8 میلیارد پارامتر و دیگری برای دستگاه های قدرتمندتر با 3.25 میلیارد پارامتر. شایعه شده که GPT-4 تا 1.7 تریلیون پارامتر و LLAMA-2 متا 70 میلیارد پارامتر دارد.
گوگل ادعا میکند که نسخه حرفهای میانرده Gemini برخی از مدلهای دیگر مانند GPT3.5 OpenAI را شکست میدهد، اما Ultra قدرتمندتر از توانایی تمام مدلهای هوش مصنوعی موجود فراتر میرود. امتیاز 90 درصد را در معیار استاندارد MMLU در صنعت کسب کرد، جایی که انتظار میرود یک انسان در سطح متخصص به 89.8 درصد برسد.
این اولین باری است که یک هوش مصنوعی انسان ها را در این آزمایش شکست می دهد و بالاترین امتیاز برای هر مدل موجود است. این آزمون شامل طیف گسترده ای از سوالات پیچیده در موضوعاتی از جمله مغالطه های منطقی، مشکلات اخلاقی در سناریوهای روزمره، مسائل پزشکی، اقتصاد و جغرافیا است.
|
🔥 آکادمی آموزشی متلب آنلاین🔥
🧠مرجع معتبر کتاب های Matlab در ایران
مجموعه ای از کتابهای آموزشی مناسب مبتدیان به همراه کدهای متلب:
منبعی مناسب برای شروع یادگیری متلب
📌آموزش متلب و سیمولینک از مبتدی تا حرفه ای
https://t.me/matlabonline/6639
📌محاسبات مهندسی و مدلسازی در متلب/ سیمولینک
https://t.me/matlabonline/6609
📌ضروریات Matlab برای مهندسین و دانشجویان
https://t.me/matlabonline/6377
📌اصول متلب: دوره ضروری برای مهندسین و دانشمندان
https://t.me/matlabonline/6057
📌مبانی متلب
https://t.me/matlabonline/6183
📌جبر خطی، معادلات انتگرال و دیفرانسیل در متلب
https://t.me/matlabonline/6067
📌جبر سمبولیک و حساب دیفرانسیل و انتگرال در متلب
https://t.me/matlabonline/6013
📌حساب و دیفرانسیل با متلب
https://t.me/matlabonline/5962
📌راهنمای جامع Matlab برای کاربران مبتدی و حرفه ای
https://t.me/matlabonline/4826
📌متلب برای محاسبات دیفرانسیل و انتگرال چندمتغیره
https://t.me/matlabonline/5889
📌برنامه نویسی و محاسبات مهندسی با متلب 2019
https://t.me/matlabonline/5671
Imageprocessing.ir
@Matlabonline
|
رقابت DeepMind با برنده مدال طلای المپیاد ریاضی | معرفی مدل AlphaGeometry
شرکت Google DeepMind مدل جدیدی به نام AlphaGeometry را برای حل مسائل هندسه معرفی کرد. بنا بر ادعای DeepMind این مدل میتواند در حد دارنده مدال طلای المپیاد ریاضی مسائل هندسه را حل کند. AlphaGeometry در زمان استاندارد این رقابت ۲۵ سوال از ۳۰ سوال را به درستی حل کرده است. این ۳۰ مسأله از میان مسائل سالهای ۲۰۰۰ الی ۲۰۲۲ المپیاد ریاضی انتخاب شدهاند. AlphaGeometry با الهام از کتاب معروف Thinking, Fast and Slow از دو بخش LLM و Symbolic Engine تشکیل شده است. بخش LLM یا مدل زبانی مشابه قسمت سریع مغز عمل کرده و ایدههای اولیه برای حل مسأله را به سرعت ارائه میدهد. مدلهای بزرگ زبانی در شناسایی الگوها به خوبی عمل کرده ولی در استنتاج دارای ضعف هستند. برای پوشش این ضعف بخش Symbolic Engine وارد عمل میشود. بخش Symbolic Engine براساس قوانین منطقی نتایج را استنتاج کرده و ارائه میدهد. نتایج این مدل در مجله nature منتشر شده است.
👈 مطالعه جزئیات بیشتر
#deepmind
#google
#AlphaGeometry
🌑 آقای هوش مصنوعی🌑
@MrArtificialintelligence
|
🆕 مایکروسافت اپدیت جدید ویندوز 11 رو عرضه کرده.
🔵 قابلیت Generative Erase به اپ Photos اضافه شده که میتونه به راحتی با هوش مصنوعی اشیای مزاحم رو از عکسهاتون با انتخاب کردن اونها حذف کنه. این قابلیت در حال ازمایشه و به زودی عرضه میشه.
🔵 اپ Clipchamp حالا میتونه قسمتهای بی صدای کلیپهارو حذف کنه.
🔵 با کمک قابلیت Voice Access کاربران میتونن برای کارهای مختلف دستورات صوتی مشخصی قرار بدن. مثلا با گفتن عبارت خاصی به صورت صوتی، متن موجود در کلیپ بورد رو پیست کنن، دکمه خاصی از کیبورد یا ماوس رو فشار بدن، پوشه یا اپ خاصی رو باز کنن و کارهای متنوع دیگه انجام بدن.
🔵 مایکروسافت قابلیت Link to Windows رو بهبود بخشیده و در اپدیت جدید اون کاربران میتونن از دوربین گوشیشون به عنوان وبکم در اپهای مختلف استفاده کنن. این قابلیت در حال ازمایش هست و به زودی برای کاربران عرضه میشه. این قابلیت نیاز به اندروید 9 به بالا داره.
🔵 هوش مصنوعی کوپایلت حالا میتونه تنظیمات بیشتری از ویندوز رو با دستورات شما تغییر بده و ایکون اون هم به ته تسک بار منتقل شده!
🌑 آقای هوش مصنوعی🌑
🎥رسانه هوش مصنوعی دانشگاه تهران
@MrArtificialintelligence
|
♾ دیتاست های مهم برای پروژه های علم داده
🟢 Basic Level
┌ 🏷 Datasets
├ 🟡 Abalone
├ 🟡 User Knowledge Modeling
├ 🟡 Real Estate Valuation
├ 🟡 Wireless Indoor Localization
├ 🟡Car Evaluation
├ 🟡 Fertility
└ 🟡 Qualitative Bankruptcy
🟡 Intermediate Level
┌ 🏷 Datasets
├ 🔸 Auto MPG
├ 🔸 Heart Disease
├ 🔸 Daily Demand Forecasting Orders
├ 🔸 Blood Transfusion Service Center
├ 🔸 Beijing PM2.5
├ 🔸 Echocardiogram
├ 🔸 Concrete Compressive Strength
├ 🔸 Liver Disorders
├ 🔸Dow Jones Index
├ 🔸Energy Efficiency
├ 🔸 Glass Identification
├ 🔸 Hepatitis
├ 🔸 Wholesale Customers
└ 🔸Travel Reviews
├ 🔸 Istanbul Stock Exchange
├ 🔸 Bike Sharing
├ 🔸 Occupancy Detection
├ 🔸 Census Income
└ 🔸 Coronavirus
🔴 Advanced Level
┌ 🏷 Generative AI for Beginners
├ 🔸 Autism Screening Adult
├ 🔸 Default of Credit Card Clients
├ 🔸 Banknote Authentication
├ 🔸 Individual Household Electric Power
├ 🔸 Online News Popularity
└ 🔸 Amazon Product Reviews
🌑 آقای هوش مصنوعی🌑
🎥رسانه هوش مصنوعی دانشگاه تهران
@MrArtificialintelligence
|
وقتی همه ما به مدرسه می رفتیم، یاد گرفتیم که لامپ ها چگونه کار می کنند یا سیستم گوارشی یا فتوسنتز چگونه کار می کند. و شما این چیزها را به همه آموزش می دهید، نه فقط به گیاه شناسان، برقکاران یا جراحان.
در فرهنگ لغت ؛ سواد به عنوان داشتن "دانش یا شایستگی" تعریف میشود. سواد هوش مصنوعی به عنوان راهی برای تعریف شایستگی هایی جدید برای دانشجویان است تا بتوانند زندگی روزمره و کاری آینده خود را با هوش مصنوعی باز طراحی کنند.
این سوال که چه چیزی یک فرد را باسواد هوش مصنوعی می کند در حال تکامل است ؛ اما فقدان درک جامع شهروندی از نحوه عملکرد فناوری، رهبران کسبوکار و رهبران سیاست را به سمت تصمیمگیری بد و پرسیدن سؤالات مزخرف سوق میدهد.
هوش مصنوعی در حال حاضر در همه جنبه های زندگی ما وجود دارد و فرصت های بزرگ و خطرات قابل توجهی را ایجاد می کند. فراگیر بودن این فناوری به این معنی است که هر انسانی تحت تأثیر قرار می گیرد - در نتیجه «سواد هوش مصنوعی» یک نیاز حیاتی برای همه افراد روی کره زمین است.
دانشجویان - بهویژه آنهایی که در جوامعی با زمینه هوش مصنوعی کمتر حضور دارند - باید بدانند که با ورود به طبقه همکف این فناوری، میتوانند از عملکرد بهتر آن اطمینان حاصل کنند.
|
خلاصه گفتگوی پاوول دوورو و تاکر کارلسون
🟡 پاوول سال ۱۹۸۴ توی شوروی به دنیا میاد، ۴ ساله بوده که با خانواده نقل مکان میکنن ایتالیا و در زمان فروپاشی شوروی دوباره برمیگردن.
🟡وقتی ۲۱ سالش بوده شبکهاجتماعی VK رو طراحی میکنه، که معروف هست به فیسبوک روسیه و میگه اون موقع فقط خودم بودم، برنامهنویسی میکردم، مدیر سرور بودم، پشتیبان سایت بودم و همه کارا با خودم بود. نهایتا تا سال ۲۰۱۱ این شبکهاجتماعی به ۱۰۰ میلیون کاربر میرسه.
🟡 با شروع تظاهراتها توی روسیه مخالفهای دولت بیشتر از VK استفاده میکنن و دولت بهشون میگه باید محتوای مخالفها و کامیونیتیها حذف بشن.
🟡 سال ۲۰۱۳ ماجرا پیچیدهتر میشه و دولت روسیه اطلاعات کاربران رو هم درخواست میکنه، در نهایت بهش میگن یا سهامتو بفروش یا اینکه باید سمت دولت باشی. که خب اینجا پاول تمام سهامشو میفروشه و از مدیرعاملی هم استعفا میده.
🟡 تاکر وسط شو شروع میکنه به تیکه انداختن به مارک زاکربرگ که معروف هست به سانسور و میگه پاوول برای اینکه سانسور نکنه استعفا داد ولی زاکربرگ سانسورچی دولته.
🟡میگه ایده تلگرام توی همون روسیه شکل گرفت، فضا امنیتی بود و نمیتونستی به کسی پیام بدی و مطمئن باشی کسی اینو نمیخونه و برادرش رمزگذاری اولیه تلگرام رو طراحی میکنه، برادرش از آدمهای سوپر اسمارت دنیای ریاضی هست، پس هسته و رمزگذاری با برادرش میشه و رابط کاربری و بقیه بخشهارو هم خود پاول طراحی میکنه.
🟡 میگه بعد از اینکه از روسیه خارج شدیم خیلی از جاها رفتیم ولی اکثرشون بروکراسیهای عجیبی داشتن، بریتانیا، آلمان، سنگاپور، سانفرانسیسکو از جاهایی بودن که رفتیم، مثلا ما میخواستیم بهترین برنامهنویسهارو از سراسر دنیا استخدام کنیم ولی اینا میگفتن اینجوری نیست، شما به راحتی نمیتونید کسی که خارج از کشور هست رو استخدام کنید. باید توی روزنامه آگهی بزنید بعد اگه تا ۶ ماه کسی از داخل کشور برای اون شغل درخواست نداد بعد میتونید نیروی خودتون رو استخدام کنید.
🟡 توضیح میده که آمریکا رو هم امتحان کردن ولی فشار نهایتهای امنیتی رو احساس کردن همون روزهای اول و گفتن اینجا جایی نیست که ما بتونیم دووم بیاریم «منظورش اینه که از روسیه میان کلا حساسیت روشون زیاده».
بعد ۷ سال پیش میرن دبی و میگه مزیت امارات اینه که به راحتی هرکسی از هرجای دنیا رو میتونید استخدام کنید، سیستم مالیات کارامد هست و زیرساخت عالیه.
میگه خوبی امارات هم اینه که کلا باهات کاری ندارن، حتی یه بار هم بهمون پیام ندادن یه چیزیو حذف کنیم یا ...
🟡 تاکر میگه چرا ۱۰۰ درصد سهام تلگرام مال خودته؟ در جواب میگه هدف ما مستقل بودنه و میدونیم که سرمایهها وقتی میان اهدافی هم دارن.
تمام سرمایهام یا داخل بانکه یا بیتکوین هست و هیچوقت اونارو خرج نکردم، جت نخریدم، قایق نخریدم، هیچ زمینی یا خونهای ندارم، علاقه دارم این سرمایه برای تلگرام هزینه بشه.
https://www.youtube.com/watch?v=1Ut6RouSs0w
|
The best GitHub repositories for learning Python
Learn Python for Data Science in 2024
👨🏻💻 In the latest data science report 2024 , Python is still the top programming language for data science with 56.7% . Here I have put a list of the best Python repositories for data science , which will improve your coding skills and guide you on the path to data science mastery
Learn Python 3 repo
A collection of Jupyter notebooks for learning Python.
GitHub repo link
The Algorithms repo
All algorithms implemented in Python for training.
GitHub repo link
Awesome Python repo
A list of great Python frameworks, libraries, software, and resources.
GitHub repo link
100 Days of ML repo
Learning algorithms and building neural networks without any programming experience.
GitHub repo link
Cosmic Python book repo
A book on Python's functional architectural patterns for managing complexity.
GitHub repo link
A Byte of Python book repo
If you do not learn Python programming, start with this book.
GitHub repo link
Python Machine Learning book repo
Python Machine Learning book code repository.
GitHub repo link
Repo of interactive interview challenges
120+ interactive Python coding interview challenges.
GitHub repo link
Repo of coding problems
Solutions for various coding/algorithmic problems.
GitHub repo link
Python Basics repo
A list of 300 Python interview questions + answer sheet.
GitHub repo link
Python programming exercises repo
100+ challenging Python programming exercises.
GitHub repo link
🌑 آقای هوش مصنوعی🌑
🎥رسانه هوش مصنوعی دانشگاه تهران
@MrArtificialintelligence
|
نمایشگاه کار یک فرصت شبکه سازی منحصر به فرد است که بسیاری از کارفرمایان مختلف را زیر یک سقف قرار می دهد تا با کارمندان بالقوه ارتباط برقرار کنند، نمایشگاههای کار میتوانند شرکتکنندگان را در مسیر سریع به دست آوردن شغل قرار دهند، و به شرکتها کمک کنند تا جای خالی را پر کنند و مسائل مربوط به نیروی کار را در جامعه حل کنند.
به یاد داشته باشید، ایجاد یک حرفه موفق در هوش مصنوعی و یادگیری ماشینی به زمان و یادگیری مداوم نیاز دارد. پس پیگیر باشید، کنجکاو بمانید و به تقویت مهارت های خود ادامه دهید. و چالشها را بهعنوان فرصتهایی برای رشد در نظر بگیرید ، اینجا یک تجربه عالی برای بهبود مهارت های ارتباطی، شبکه سازی و منتورینگ فردی خواهد بود.
در نمایشگاه کار دانشگاه صنعتی امیرکبیر ؛ تجربیات خود از ایده تا محصول را برای یافتن مسیر شغلی موفق در عصر هوش مصنوعی در قالب یک سخنرانی ارائه خواهم داد.
از مهندسی داده ؛ تحلیل گر داده ؛ دانشمند داده ؛ مهندس هوش مصنوعی و یادگیری ماشین ؛ معمار هوش مصنوعی و نقشه راه مهارت های حوزه Devops و معرفی MLops نیز سخن خواهم گفت.
قطعا چارچوب یک شغل همراه مهارت نرم و دانش بوم کسب و کار ارزش فوق العاده ای خواهد داشت.
|
بازیگر جدیدی داریم، خلاقیتی که برخاسته از نبوغ انسان است. هوش مصنوعی می تواند با شاهکارهای ذهنی ما مطابقت داشته باشد و حتی از آن پیشی بگیرد.
دنیایی را تصور کنید که در آن ماشین ها نه تنها وظایف را انجام میدهند بلکه، فکر میکنند یاد میگیرند و سازگار میشوند
این یک داستان علمی تخیلی نیست، این واقعیت انقلاب صنعتی چهارم است.
استفاده از هوش مصنوعی مولد در یادگیری ، چالش های بی سابقه ای را برای سیستم های آموزشی ایجاد میکند
بر اساس یک چشم انداز انسان گرایانه، دستور العمل گام به گام کلیدی برای تنظیم ابزار genai، از جمله الزام حفاظت از حریم خصوصی داده ها، تعیین محدودیت سنی برای مکالمات مستقل با سیستم عامل های genai، پیشنهاد میشود
همانطور که در این مقطع حرکت میکنیم، با سوالاتی رو برو میشویم که جوهر سلطه ما را بررسی میکند
همانطور که ما حیوانات را برای نیازهای خود اهلی کرده ایم، آیا هوش مصنوعی میتواند سرنوشت ما را رقم بزند؟
آیا زمانی که هوش مصنوعی پیشتاز است، میتوانیم سوژه خلقت خود شویم!
ظهور هوش مصنوعی ما را ترغیب میکند تا محدودیت های تخیل خود را کشف کنیم، مرزهای قدرت را مورد بررسی قرار دهیم و به این فکر کنیم که آیا خلقت ما می تواند روزی ما را به روش هایی تحت الشعاع قرار دهد که هرگز تصور نمیکردیم؟
از طرفی، مدل های هوش مصنوعی خطوط بین صنایع را محو میکنند ، استراتژی ها کمتر به تخصص و تمایز تخصصی مبتنی بر هزینه ، کیفیت و نام تجاری متکی هستند و بیشتر بر موقعیت شبکه کسب و کار ، داده های منحصر به فرد و استقرار تحلیل های پیچیده متکی خواهند بود
هوش مصنوعی چه مورد ستایش قرار گیرند، چه تقبیح، در کشورهای صنعتی بطور فزاینده ای بخشی از چشم انداز آموزشی هستند
این نکات، هیجان انگیز، مبهم و کمی گیج کننده است.
بخشی از سخنرانی
چشم انداز صنعت و دانشگاه در عصر هوش مصنوعی
مسلم تقی زاده
|
همونطور که میدونید، بهتازگی مدلهای چندوجهی (Multimodal Models) و بهطور خاص مدلهای بینایی-زبان (Vision-Language Models) بسیار محبوب شدهاند.
این مدلها معمولا بهطور همزمان یک تصویر و یک نوشتار را در ورودی دریافت میکنند. خروجی این مدلها ممکنست تنها نوشتار باشد، تنها تصویر باشد و یا ترکیبی از هر دو.
از مدلهای تجاری مثل GPT-4o و Gemini 1.5 Pro که بگذریم، بسیاری از افراد مایلاند از مدلهای اوپن-سورس و رایگان استفاده کنند.
بهتازگی شاهد انتشار مدل PaliGemma توسط گوگل بودیم که در عین سادگی، عملکرد فوقالعادهای دارد. با این حال، این مدل ۸ میلیارد پارامتر دارد و ممکنست برای اجرا روی دستگاههای ضعیف مناسب نباشد.
گزینهی دیگر Moondream2 است که با اینکه دقت PaliGemma را ندارد اما بهنسبت سایز بسیار کوچک آن (۱/۸۶ میلیارد پارامتر) دقت قابل قبولی دارد و حتی در آزمون VQAv2 از GPT-4o هم بهتر عمل میکند.
لینک آموزشی زیر، این مدل را برای شمارش مبلغ پول فاینتیون میکند.
https://blog.roboflow.com/finetuning-moondream2/
🌑 آقای هوش مصنوعی🌑
🎥رسانه هوش مصنوعی دانشگاه تهران
@MrArtificialintelligence
|
مدل YOLOv10 توسط THU-MIG منتشر شد!
این مدل در ۶ سایز معرفی شدهست:
نانو (n): ۲/۳ میلیون پارامتر
کوچک (s): ۷/۲ میلیون پارامتر
متوسط (m): ۱۵/۴ میلیون پارامتر
بزرگ (b): ۱۹/۱ میلیون پارامتر
بزرگ (l): ۲۴/۴ میلیون پارامتر
خیلی بزرگ (x): ۲۹/۵ میلیون پارامتر
این مدل دقت (mAP) بهتری روی مجموعهدادهی COCO داشته و بهخاطر عدم استفاده از NMS به مراتب سریعترست. طوری که کوچکترین سایز، هر تصویر را در ۱ میلیثانیه پردازش میکند (1000fps) و به راحتی میتوان گفت بهترین مدل برای پردازش بلادرنگ ویدئوها روی دستگاههای لبه (edge devices) است.
کد این مدل روی فریمورک Ultralytics زده شده و بنابراین به کمک پکیج ultralytics بهسادگی قابل استفاده است.
نکتهی قابل توجه این که، این مدل تحت مجوز GNU GPL v3.0 منتشر شده، یعنی فقط در پروژههای اوپن-سورس قابل استفادهست و نمیتوان از آن در محصولات close-source استفاده کرد.
مقاله
https://arxiv.org/pdf/2405.14458
گیتهاب
https://github.com/THU-MIG/yolov10/
فاینتیون کردن مدل
https://blog.roboflow.com/yolov10-how-to-train/
دمو
https://huggingface.co/spaces/kadirnar/Yolov10
|
پژوهشگران پردازشگر زیستیای با ۱۶ ارگانوئید مغز ساختهاند که ۱ میلیون برابر مصرف انرژی کمتری نسبت به یک تراشه دیجیتال دارد.
یک استارتاپ زیست-محاسباتی سوییسی به نام FinalSpark اولین سرویس آنلاین برای دسترسی از راه دور به ارگانوئیدهای مغز در جهان رو راهاندازی کردن. در حال حاضر این پلتفرم بهنام Neuroplatform فعالیت میکنه و اجازه دسترسی به نورونهای بیولوژیکی در شرایط آزمایشگاهی رو میده. این زیستپردازندهها یک میلیونبار مصرف انرژی کمتری نسبت به پردازندههای دیجیتال کلاسیک دارن و به دلیل مصرف انرژی کمتر اثرات زیست-محیطی محاسبات رو کاهش میدن. این استارتاپ در یک مقاله تحقیقاتی که اخیرا منتشر کرده ادعا میکنه با استفاده از این زیستپردازندهها میشه هزینه آموزش LLMها رو به شدت پایین آورد(برای آموزش یک مدل شبیه GPT-3 نیاز به انرژی ۱۰گیگاواتساعتیه در صورتی که این انرژی حدود ۶۰۰۰بار بیشتر از مصرف انرژی یک شهروند اروپایی برای یک سال کامله). درحال حاضر این اجازه دسترسی به ۴ ارگانوئید رو با پرداخت ۵۰۰دلار ماهانه برای پروژههای آموزشی میده.
TomsHardware
🌑 آقای هوش مصنوعی🌑
@MrArtificialintelligence
|
پژوهشگران گوگل و استنفورد، در محیطی الهامگرفتهشده از بازی The Sims، تعداد ۲۵ عامل هوش مصنوعی (AI Agent) قدرتگرفته از GPT-4 را کنار هم در محیط قرار دادهاند تا رفتارهای اجتماعی آنها را مطالعه کنند.
محیط شبیهسازیشده که SmallVille نام دارد، شامل تعدادی خانه، سوپرمارکت، داروخانه، کافه، پارک و کالجست.
این ۲۵ عامل، اهداف و شغلهای مشخص مانند نقاش یا نویسنده دارند و رفتارهای فردی و اجتماعی شبیه به انسانها از خود نشان میدهند. صبحها بیدار میشوند، صبحانه آماده میکنند، سر کار میروند و با یکدیگر به مکالمه میپردازند.
آنها خاطرات روزهای قبل را به یاد دارند و برای روزهای بعد برنامهریزی میکنند.
پژوهشگران متوجه رفتارهای اجتماعی جالبی مثل پخششدن اطلاعات در شهر، بهخاطرآوردن تعاملات قبلی و صحبت در مورد آنها در دیدارهای بعدی، و حتی برنامهریزی و شرکت در جشن ولنتاین بودند.
دمو
https://reverie.herokuapp.com/arXiv_Demo/
بلاگپست:
https://arstechnica.com/information-technology/2023/04/surprising-things-happen-when-you-put-25-ai-agents-together-in-an-rpg-town/
مقاله:
https://arxiv.org/pdf/2304.03442
|
Data Scientist Roadmap
|
|-- 1. Basic Foundations
| |-- a. Mathematics
| | |-- i. Linear Algebra
| | |-- ii. Calculus
| | |-- iii. Probability
| | -- iv. Statistics
| |
| |-- b. Programming
| | |-- i. Python
| | | |-- 1. Syntax and Basic Concepts
| | | |-- 2. Data Structures
| | | |-- 3. Control Structures
| | | |-- 4. Functions
| | | -- 5. Object-Oriented Programming
| | |
| | -- ii. R (optional, based on preference)
| |
| |-- c. Data Manipulation
| | |-- i. Numpy (Python)
| | |-- ii. Pandas (Python)
| | -- iii. Dplyr (R)
| |
| -- d. Data Visualization
| |-- i. Matplotlib (Python)
| |-- ii. Seaborn (Python)
| -- iii. ggplot2 (R)
|
|-- 2. Data Exploration and Preprocessing
| |-- a. Exploratory Data Analysis (EDA)
| |-- b. Feature Engineering
| |-- c. Data Cleaning
| |-- d. Handling Missing Data
| -- e. Data Scaling and Normalization
|
|-- 3. Machine Learning
| |-- a. Supervised Learning
| | |-- i. Regression
| | | |-- 1. Linear Regression
| | | -- 2. Polynomial Regression
| | |
| | -- ii. Classification
| | |-- 1. Logistic Regression
| | |-- 2. k-Nearest Neighbors
| | |-- 3. Support Vector Machines
| | |-- 4. Decision Trees
| | -- 5. Random Forest
| |
| |-- b. Unsupervised Learning
| | |-- i. Clustering
| | | |-- 1. K-means
| | | |-- 2. DBSCAN
| | | -- 3. Hierarchical Clustering
| | |
| | -- ii. Dimensionality Reduction
| | |-- 1. Principal Component Analysis (PCA)
| | |-- 2. t-Distributed Stochastic Neighbor Embedding (t-SNE)
| | -- 3. Linear Discriminant Analysis (LDA)
| |
| |-- c. Reinforcement Learning
| |-- d. Model Evaluation and Validation
| | |-- i. Cross-validation
| | |-- ii. Hyperparameter Tuning
| | -- iii. Model Selection
| |
| -- e. ML Libraries and Frameworks
| |-- i. Scikit-learn (Python)
| |-- ii. TensorFlow (Python)
| |-- iii. Keras (Python)
| -- iv. PyTorch (Python)
|
|-- 4. Deep Learning
| |-- a. Neural Networks
| | |-- i. Perceptron
| | -- ii. Multi-Layer Perceptron
| |
| |-- b. Convolutional Neural Networks (CNNs)
| | |-- i. Image Classification
| | |-- ii. Object Detection
| | -- iii. Image Segmentation
| |
| |-- c. Recurrent Neural Networks (RNNs)
| | |-- i. Sequence-to-Sequence Models
| | |-- ii. Text Classification
| | -- iii. Sentiment Analysis
| |
| |-- d. Long Short-Term Memory (LSTM) and Gated Recurrent Units (GRU)
| | |-- i. Time Series Forecasting
| | -- ii. Language Modeling
| |
| -- e. Generative Adversarial Networks (GANs)
| |-- i. Image Synthesis
| |-- ii. Style Transfer
| -- iii. Data Augmentation
|
|-- 5. Big Data Technologies
| |-- a. Hadoop
| | |-- i. HDFS
| | -- ii. MapReduce
| |
| |-- b. Spark
| | |-- i. RDDs
| | |-- ii. DataFrames
| | -- iii. MLlib
| |
| -- c. NoSQL Databases
| |-- i. MongoDB
| |-- ii. Cassandra
| |-- iii. HBase
| -- iv. Couchbase
|
|-- 6. Data Visualization and Reporting
| |-- a. Dashboarding Tools
| | |-- i. Tableau
| | |-- ii. Power BI
| | |-- iii. Dash (Python)
| | -- iv. Shiny (R)
| |
| |-- b. Storytelling with Data
| -- c. Effective Communication
|
|-- 7. Domain Knowledge and Soft Skills
| |-- a. Industry-specific Knowledge
| |-- b. Problem-solving
| |-- c. Communication Skills
| |-- d. Time Management
| -- e. Teamwork
|
-- 8. Staying Updated and Continuous Learning
|-- a. Online Courses
|-- b. Books and Research Papers
|-- c. Blogs and Podcasts
|-- d. Conferences and Workshops
`-- e. Networking and Community Engagement
#نقشه_راه_هوش_مصنوعی
🌑 آقای هوش مصنوعی🌑
🎥رسانه هوش مصنوعی دانشگاه تهران
@MrArtificialintelligence
|
مدل بنیادین Florence-2 که یک مدل چندوجهی بینایی-زبان بسیار سبک و اوپن-سورس است، توسط Microsoft معرفی شد.
معماری سادهی این مدل تغییر خاصی نسبت به نسخهی قبل نکرده و متشکل از یک DaViT به عنوان کدگذار بینایی، یک BERT به عنوان کدگذار نوشتار و یک کدگشای مبتنی بر ترنسفورمرست.
این مدل قادر به انجام بیش از ۱۰ تسک مختلف در زمینهی بینایی رایانه از جمله image captioning و object detection و grounding و segmentation و OCR است.
این مدل در دو نسخهی base (۲۳۰ میلیون پارامتر) و large (۷۷۰ میلیون پارامتر) منتشر شده که هر دو مناسب اجرا روی دستگاههای لبه و موبایلها هستند.
قابلیت بالای این مدل به خاطر مجموعهدادهی آموزشی حجیم آن به نام FLD-5B شامل ۱۲۶ میلیون تصویر و ۵/۴ میلیارد انوتیشنست.
بلاگپست معرفی:
https://blog.roboflow.com/florence-2/
مقاله:
https://arxiv.org/pdf/2311.06242
دمو:
https://huggingface.co/spaces/gokaygokay/Florence-2
نوتبوک:
https://colab.research.google.com/?ref=blog.roboflow.com#fileId=https%3A//huggingface.co/microsoft/Florence-2-large/blob/main/sample_inference.ipynb
|
🌟 MiraData: Large, long-duration video dataset with structured annotations.
When training generative models, the training dataset plays an important role in the quality of reference of ready-made models.
One of the good sources can be MiraData from Tencent - a ready-made dataset with a total video duration of 16 thousand hours, designed for training models for generating text in videos. It includes long videos (average 72.1 seconds) with high motion intensity and detailed structured annotations (average 318 words per video).
To assess the quality of the dataset, a system of MiraBench benchmarks was even specially created, consisting of 17 metrics that evaluate temporal consistency, movement in the frame, video quality, and other parameters. According to their results, MiroData outperforms other well-known datasets available in open sources, which mainly consist of short videos with floating quality and short descriptions.
🟡 Project page
🟡 Arxiv
🤗 Hugging Face
🖥 GitHub
#Text2Video #Dataset #ML
|
فناوریهای جدید هوش مصنوعی، محصول هوش ما - خلاقیت - تجربیات - دادههای ما - و تاریخ ما هستند. شاید آنها کمتر تصنعی باشند و بیشتر گواهی بر ظرفیت فکری جمعی ما باشند.
انسان های اولیه را در نظر بگیرید
یک منظره جذاب طبیعی که توسط رعد و برق مشتعل شد منجر به خلق آتش توسط اجداد ما شد
ولی هیچوقت " آتش مصنوعی" برچسب نخورد.
چون آتش فارغ از منبع آن آتش است.
شاید زمان آن رسیده است که درک خود را اصلاح کنیم و تشخیص دهیم که همه انواع هوش اساساً "واقعی" هستند - در انسان، طبیعت یا سیستم ها.
به جای طبقهبندی هوش بر اساس منشأ آن، آیا اصول حاکم بر رفتار هوشمند در موجودات و الگوریتمها را کشف میشود
تحول دیجیتال قبل از "دیجیتال" فقط تحول است، تحول اصلاح عادات فعلی و مدل ذهنی است. تحول دیجیتال ناشی از تغییر نیازها و انتظارات مصرف کنندگان است، بنابراین تحول دیجیتال یک سفر است نه یک مقصد ، یک انقلاب بزرگ با تکامل خرد .
سومین کنفرانس ملی تحول دیجیتالی
#تحول_دیجتال #هوش_مصنوعی #دانشگاه_خاتم
#digital_transformation #artificialintelligence
🌑 آقای هوش مصنوعی🌑
🎥رسانه هوش مصنوعی دانشگاه تهران
@MrArtificialintelligence
|
و بالاخره بعد از حواشی و اخبار زیاد، متا امروز از مدل اپنسورس Llama 3.1 در سه وزن ۸، ۷۰ و ۴۰۵ میلیارد پارامتری رونمایی کرد. هر سه این مدلها نسبت به مدلهای هموزنشون عملکرد بهتری رو به نمایش میذارن و متا بزرگترین و قویترین مدل اپنسورس فعلی رو تا به امروز معرفی کرده. مدل بسیار بزرگ ۴۰۵Bی متا روی بیش از ۱۵تریلیون توکن و با ۱۶هزار گرافیک NVIDIA H100 آموزش داده شده. این مدل عملکرد بسیار نزدیک و بعضا بهتری نسبت به مدلهای GPT-4، GPT-4o ،Gemini Ultra و Claude 3.5 Sonset در بعضی از موارد داشته. مارک زاکربرگ، مدیرعامل متا، گفته ما معتقدیم معرفی مدلهای اپنسورس این چنینی موجب میشه قدرت این فناوری در دستان آدمها و شرکتهای معدودی متمرکز نشه و با سرعت و امنیت بیشتری پیشرفت پیدا کنه. درحال حاضر هر سه روی ollama و hugginface در دسترسه و شما با دستور ollama run llama3.1 میتونید هر کدوم از مدلهایی که میخواید رو اجرا کنید. اگر هم به آیپی آمریکا دسترسی دارید قویترین مدل در سایت meta.ai در دسترسه. عرضه چنین مدلی باعث پیشرفت بیشازپیش مدلهای اپنسورس دیگهای میشه که از مدل پایه llama استفاده میکنن.
|
🗂 A collection of the best free courses
📝 For data science, data engineering, MLOps, ML and GenAI
💠 data science
1️⃣ Python for Everybody Course : A great course for beginners to learn Python.
2️⃣ Data analysis with Python course : This course introduces you to data analysis techniques with Python.
3️⃣ Databases & SQL course : You will learn how to manage databases with SQL.
4️⃣ Intro to Inferential Statistics course : This course teaches you how to make predictions by learning statistics.
5️⃣ ML Zoomcamp course : a practical and practical course for learning machine learning.
🔺 Data engineering
1️⃣ Data Engineering Course : Learn the basics of data engineering.
2️⃣ Data Engineer Learning Path course : a comprehensive road map to become a data engineer.
3️⃣ Database Engineer course : get a specialized degree in database engineering.
4️⃣ Big Data Specialization Course : Get to know big data technologies and their applications.
5️⃣ The Data Eng Zoomcamp course : a practical course to learn data engineering.
🔺 machine learning
1️⃣ Intro to ML course : an introductory and self-paced course to start machine learning.
2️⃣ ML for Everybody course : A simple approach to learning machine learning concepts.
3️⃣ ML in Python course : focus on machine learning with Python and Scikit-Learn.
4️⃣ ML Crash Course : A quick but comprehensive introduction to machine learning.
5️⃣ CS229 : ML : An advanced course for those who want to deepen their knowledge.
🔻 Machine Learning Operations (MLOps)
1️⃣ Python Essentials for MLOps course : an essential course for MLOps enthusiasts..
2️⃣ MLOps for Beginners Course : A great starting point for MLOps newbies.
3️⃣ ML Engineering Course : A set of courses for deep entry into the world of MLOps.
4️⃣ MLOps Specialization Course : Focus on operational aspects of machine learning.
5️⃣ Made With ML course : a special course that combines machine learning with practical applications.
🔹 Generative artificial intelligence
1️⃣ Generative AI for Beginners course : building generative artificial intelligence apps.
2️⃣ Generative AI Fundamentals course : getting to know the basic principles of generative artificial intelligence.
3️⃣ Intro to Gen AI course : from learning large language models to understanding the principles of responsible artificial intelligence.
4️⃣ Generative AI with LLMs course : Learn business applications of artificial intelligence with AWS experts in a practical way.
5️⃣ Generative AI for Everyone course : This course tells you what generative artificial intelligence is, how it works, and what uses and limitations it has.
☕️ #MachineLearning #Python #COURSES #GenerativeAI #LLM
🌑 آقای هوش مصنوعی🌑
🎥رسانه هوش مصنوعی دانشگاه تهران
@MrArtificialintelligence
|
📢📢#فرصت_همکاری
❇️شرکت کیمیاگران انرژی از شرکت های فناور مستقر در پارک علم و فناوری دانشگاه صنعتی شریف از خانم ها و آقایون علاقه مند به حوزه های برق و انرژی دعوت به همکاری پاره وقت و تمام وقت می نماید
💡عناوین شغلی:
✅#طراحی و ساخت برد
(در حوزه انرژی، بهینه سازی، مهندسی معکوس، تحلیل داده های انرژی، هوش مصنوعی، سیستم خورشیدی، ساخت تجهیزات برقی وانرژی، طراحی برد، اینترنت اشیا)
✅#کارشناس_فنی_و_اجرایی
(ممیزی انرژی، ساخت تابلو برق، اجرای نیروگاه خورشیدی، ارزیاب کیفیت توان الکتریکی)
🔶شرایط لازم برای همکاری:
🔷تحصیلات: کارشناسی یا کارشناسی ارشد
🔷محدودیت سنی: ۲۳ الی ۳۶
🔷 جنسیت: آقا و خانم
🔷 رشته های مورد نیاز: برق،انرژی،مکانیک، هوش مصنوعی، معماری
🏷️ شرایط کاری
📌ساعت کاری: تمام وقت و پاره وقت
📌حقوق: توافقی
📌بیمه: دارد
📌امکان همکاری پروژه ای: دارد
امکان همکاری ساعتی: دارد
✨حوزه های فعالیت کیمیاگران انرژی
🔻مدیریت و ممیزی انرژی
🔻هوش مصنوعی و تحلیل داده
🔻نیروگاه های خورشیدی
🔻کیفیت توان الکتریکی
🔻روشنایی فوق کم مصرف
🔻مانیتورینگ انرژی
🔻استقرار استاندار مدیریت انرژی ایزو ۵۰۰۰۱
🏢 آدرس محل کار: تهران، طرشت شمالی، بلوارتیموری، پژوهشکده انرژی دانشگاه صنعتی شریف
❇️متقاضیان میتوانند رزومه خود را از طریق ایمیل، تلگرام یا واتساب به آدرس زیر ارسال نمایند و از تماس تلفنی خودداری نمایید:
📞 ۰۹۳۵۲۵۷۱۹۹۵
🔷 [email protected]
📢I'dTelegram :@Fanavaran99
|
در روزهای اولیه، تجزیه و تحلیل بازاریابی عمدتاً در مورد جمع آوری و تجزیه و تحلیل داده های اساسی مانند ارقام فروش، جمعیت شناسی مشتری و روند بازار بود. این داده ها برای ایجاد استراتژی های بازاریابی گسترده و درک رفتار مصرف کننده در سطح کلان استفاده شد. با این حال، بینش های به دست آمده اغلب گذشته نگر بودند و فاقد عمق لازم برای تصمیم گیری دقیق بودند.
ظهور هوش مصنوعی، تجزیه و تحلیل بازاریابی را به سطح بالاتری رساند. الگوریتم های هوش مصنوعی می توانند حجم وسیعی از داده ها را تجزیه و تحلیل کنند، الگوها را شناسایی کنند و با دقت قابل توجهی پیش بینی کنند. این منجر به ظهور تحلیلهای پیشبینیکننده شده است، جایی که کسبوکارها میتوانند نیازهای مشتری و روند بازار را پیشبینی کنند و تصمیمگیری فعالانه را ممکن میسازد.
هوش مصنوعی همچنین شخصی سازی بیش از حد را به واقعیت تبدیل کرده است. با تجزیه و تحلیل رفتار، ترجیحات و تعاملات فردی مشتری، هوش مصنوعی میتواند به کسبوکارها کمک کند تا تجربیات شخصیسازی شده ارائه دهند و تعامل و وفاداری مشتری را افزایش دهند.
یک مطالعه اخیر توسط McKinsey & Company نشان داد که شرکت هایی که از بازاریابی مبتنی بر داده استقبال می کنند، 23 برابر بیشتر احتمال دارد مشتریان را به دست آورند و 6 برابر بیشتر احتمال دارد آنها را حفظ کنند. این امر بر نقش حیاتی علم داده در موفقیت بازاریابی مدرن تاکید می کند.
|
هوش مصنوعی بهعنوان یکی از پیشرفتهترین دستاوردهای علمی بشر، بهطور فزایندهای در حوزه سلامت و علوم پزشکی نقشآفرین شده است. با توانایی پردازش حجم عظیمی از دادهها و شناسایی الگوهای پیچیده، هوش مصنوعی به تشخیص دقیقتر بیماریها و ارائه روشهای درمانی شخصیسازیشده کمک شایانی کرده است. اما این تحول تنها یک پیشرفت فناورانه نیست؛ بلکه سؤالات عمیقی را در باب ماهیت انسان، اخلاق و خودمختاری بهوجود آورده است. آیا میتوان اعتماد کامل به تصمیمات هوش مصنوعی در تشخیص بیماریها داشت؟ در حالی که هوش مصنوعی میتواند از خطاهای انسانی بکاهد، آیا به این معناست که تصمیمات پزشکی از انسانها به ماشینها واگذار شود؟
ارتباط میان انسان و ماشین در این زمینه یک تعامل پیچیده است. پزشکان بهعنوان متولیان اصلی سلامت، همچنان نقش کلیدی در ارزیابی دادهها و تصمیمگیریهای نهایی دارند. بااینحال، بهکارگیری هوش مصنوعی پرسشی را مطرح میکند: تا چه حد میتوان به ماشینها اجازه داد تا در موضوعاتی همچون حیات و سلامت دخالت کنند؟ این سؤال نه تنها بعد تکنیکی دارد، بلکه چالشی فلسفی درباره مرزهای اخلاق، مسئولیت و اعتماد به فناوری است.
هوش مصنوعی، بهرغم کارایی بینظیرش، یادآوری میکند که فناوری به خودی خود بدون اخلاق و قضاوت انسانی نمیتواند جایگزین مسئولیتهای ما شود.
|
هوش مصنوعی در مدیریت شهری به مثابه مغز یک شهر هوشمند عمل میکند، جایی که دادهها به مثابه حواس عمل میکنند و الگوریتمها به تصمیمات هوشمند و کارآمد منجر میشوند. این فناوری میتواند با تحلیل حجم عظیمی از اطلاعات از منابع مختلف، همچون ترافیک، آلودگی، و نیازهای شهروندان، بهینهترین راهحلها را برای چالشهای پیچیده شهری ارائه دهد. از بهبود مدیریت ترافیک و کاهش مصرف انرژی گرفته تا ارتقاء خدمات عمومی و افزایش ایمنی، هوش مصنوعی میتواند با کاهش هزینهها و افزایش کیفیت زندگی، شهرها را به محیطهایی پایدار و پاسخگو تبدیل کند. در واقع، با توانمندسازی مدیران شهری برای اتخاذ تصمیمات دقیقتر و پیشبینی مشکلات آینده، هوش مصنوعی نهتنها کیفیت مدیریت شهری را بهبود میبخشد، بلکه زمینهساز توسعه شهرهای هوشمند و پایدار برای نسلهای آینده نیز میشود.
هوش مصنوعی در مدیریت شهری نه تنها بهعنوان ابزاری فناورانه، بلکه بهمثابه یک تحول پارادایمی در فهم و تعامل ما با محیط شهری است. این فناوری با تحلیل دادههای کلان از منابع متنوعی چون حملونقل، انرژی، زیرساختها و رفتارهای اجتماعی، توانایی درک عمیقتری از پویاییهای پیچیده و چندبعدی شهرها را به ارمغان میآورد. در این زمینه، هوش مصنوعی قادر است فراتر از بهینهسازی عملیاتی، به پیشبینی الگوهای تغییرات اجتماعی و محیطی بپردازد و سیاستگذاریها را از سطح واکنشی به سطح پیشکنشی ارتقا دهد. این تحول میتواند مفهوم «شهر» را از یک موجودیت ایستا و مکانیکی به یک ارگانیسم پویا و یادگیرنده تغییر دهد؛ جایی که دادهها به منزله حافظه جمعی و الگوریتمها به مثابه خرد جمعی عمل میکنند. در این چارچوب، هوش مصنوعی نه تنها بهینهساز منابع، بلکه بهعنوان ابزاری برای درک بهتر و عمیقتر از حیات شهری و توسعه پایدار آن مطرح میشود.
|
طبق گزارش “Oxford insight ” در شاخص آمادگی هوش مصنوعی دولتها در سال ۲۰۲۳، ایران در حوزهی هوش مصنوعی هنوز با چالشهای ساختاری متعددی روبرو است. در این گزارش، کشورها بر اساس سه رکن اصلی: دولت، بخش فناوری و داده و زیرساخت ارزیابی میشوند. در بخش دولت، نبود یک استراتژی ملی جامع هوش مصنوعی یکی از دلایل اصلی عقبماندگی ایران محسوب میشود. با توجه به رقابت جهانی در این زمینه، فقدان سیاستهای یکپارچه منجر به عدم بهرهبرداری مؤثر از ظرفیتهای هوش مصنوعی و همچنین ضعف در تنظیم مقررات و مدیریت ریسکهای احتمالی شده است.
در حوزه داده و زیرساخت، ایران با مشکلاتی از جمله شکاف دیجیتالی و عدم دسترسی به زیرساختهای پیشرفته مواجه است که مانع از توسعه و پیادهسازی مؤثر سیستمهای هوش مصنوعی میشود. بدون سرمایهگذاری در این زمینه، کشور در معرض وابستگی به فناوریهای خارجی قرار میگیرد، که این موضوع میتواند ریسکهای امنیتی و زبانی را افزایش دهد.
با این حال، گزارش نشان میدهد که کشورهایی مانند ایران میتوانند با توسعه زیرساختها، آموزش نیروی کار و تدوین استراتژیهای مبتنی بر استفاده مسئولانه از هوش مصنوعی، از مزایای آن برای رشد اقتصادی و اجتماعی بهرهبرداری کنند .
|
با اینکه فکر میکنید 5G آخرین نسل ارتباط تلفن همراه هست ولی داریم ازش عبور کنیم و 5.5G یا همون 5G Advanced داره به شبکههای مخابراتی اضافه میشه.
اول اینکه میشه باهاش به سرعت اینترنت ۱۰ گیگابیت رسید، اتفاقی که الان با 5G در حدود میانگین ۱ تا ۲ گیگابیت هست.
یا اینکه تکنولوژیهایی داره که کمک میکنه تو جاهای شلوغ مثل استادیومها، آنتنهای بیشتری به دکلها اضافه کنن تا ظرفیت اونجا بدون مشکل زیاد بشه.
حتی برای الگوی ترافیک و بهبود قدرت سیگنال ممکنه از AI هم استفاده کنن.
ویژگی بعدیش هم کاهش مصرف انرژی گوشی هست وقتی از اون استفاده نمیکنیم، (منظور حالت آماده به کار هست)
حالا یکی از مدیران تی-موبایل آمریکا تایید کرده که میخوان شبکه 5G Advanced رو تا چند ماه دیگه راهاندازی کنن.
از طرفی خود گوشی هم باید پشتیبانی کنه و خبر خوب اینهکه قبلا مودمهایی با این قابلیت تولید شدن و بعضی از گوشیها این ویژگی رو دارن.
هرچند با اعلام اولین دکلهایی که این ویژگیرو دارن احتمالا تمام گوشیهایی که بعدا معرفی میشن روی این کلمه 5G Advanced خیلی تبلیغ کنن.
#5G
🌑 آقای هوش مصنوعی🌑
🎥رسانه هوش مصنوعی دانشگاه تهران
@MrArtificialintelligence
|
ادغام هوش مصنوعی در استراتژیهای تبلیغاتی، انقلابی در نحوه تحلیل و بهینهسازی کمپینهای بازاریابی ایجاد کرده است. از طریق الگوریتمهای یادگیری ماشین و پردازش زبان طبیعی، هوش مصنوعی قادر است دادههای کاربران را در مقیاس وسیع جمعآوری و تحلیل کند تا الگوهای رفتاری و ترجیحات مخاطبان را بهصورت دقیق شناسایی کند. این تحلیلهای پیشرفته، به بازاریابان اجازه میدهد تا محتوای تبلیغاتی را با دقت بسیار بالا شخصیسازی کنند و تبلیغات هدفمندی ارائه دهند که احتمال کلیک و تبدیل به مشتری در آن بیشتر است.
علاوه بر شخصیسازی، هوش مصنوعی میتواند در بهینهسازی زمان و محل انتشار تبلیغات مؤثر باشد. بهعنوان مثال، الگوریتمهای پیشبینی مبتنی بر هوش مصنوعی میتوانند زمانهایی که کاربران بیشترین تعامل را دارند شناسایی کنند، و تبلیغات در این زمانها منتشر شود. همچنین، سیستمهای توصیهگر هوشمند، بر اساس سوابق جستجو و خرید کاربران، پیشنهادات متناسبتری را ارائه میدهند که موجب افزایش نرخ بازگشت سرمایه (ROI) میشود.
در نتیجه، هوش مصنوعی نه تنها باعث کارآمدتر شدن فرایندهای تبلیغاتی میشود، بلکه تجربه کاربری را بهبود میبخشد و وفاداری مشتریان را به دلیل همسویی تبلیغات با نیازها و علایق آنها تقویت میکند.
|
Complete Data Science Roadmap
👇👇
1. Introduction to Data Science
- Overview and Importance
- Data Science Lifecycle
- Key Roles (Data Scientist, Analyst, Engineer)
2. Mathematics and Statistics
- Probability and Distributions
- Descriptive/Inferential Statistics
- Hypothesis Testing
- Linear Algebra and Calculus Basics
3. Programming Languages
- Python: NumPy, Pandas, Matplotlib
- R: dplyr, ggplot2
- SQL: Joins, Aggregations, CRUD
4. Data Collection & Preprocessing
- Data Cleaning and Wrangling
- Handling Missing Data
- Feature Engineering
5. Exploratory Data Analysis (EDA)
- Summary Statistics
- Data Visualization (Histograms, Box Plots, Correlation)
6. Machine Learning
- Supervised (Linear/Logistic Regression, Decision Trees)
- Unsupervised (K-Means, PCA)
- Model Selection and Cross-Validation
7. Advanced Machine Learning
- SVM, Random Forests, Boosting
- Neural Networks Basics
8. Deep Learning
- Neural Networks Architecture
- CNNs for Image Data
- RNNs for Sequential Data
9. Natural Language Processing (NLP)
- Text Preprocessing
- Sentiment Analysis
- Word Embeddings (Word2Vec)
10. Data Visualization & Storytelling
- Dashboards (Tableau, Power BI)
- Telling Stories with Data
11. Model Deployment
- Deploy with Flask or Django
- Monitoring and Retraining Models
12. Big Data & Cloud
- Introduction to Hadoop, Spark
- Cloud Tools (AWS, Google Cloud)
13. Data Engineering Basics
- ETL Pipelines
- Data Warehousing (Redshift, BigQuery)
14. Ethics in Data Science
- Ethical Data Usage
- Bias in AI Models
15. Tools for Data Science
- Jupyter, Git, Docker
16. Career Path & Certifications
- Building a Data Science Portfolio
#هوش_مصنوعی
🌑 آقای هوش مصنوعی🌑
🎥رسانه هوش مصنوعی دانشگاه تهران
@MrArtificialintelligence
|
📣 دانشکده مدیریت صنعتی و فناوری دانشکدگان مدیریت دانشگاه تهران با همکاری هدلاین برگزار میکند:
🟢 رویداد هدلاین؛ رشد کسبوکارها در عصر دیجیتال
📈 این رویداد با حضور بیش از 500 نفر از صاحبان کسبوکار، مدیران عامل، مدیران ارشد و صاحبنظران توسعه و رشد کسب وکارهای ایرانی برگزار می شود.
در این رویداد قرار است روی نقش و تاثیر همه دپارتمانهای یک کسبوکار و اهمیت همکاری و یکپارچگی آنها برای رشد با توجه به پیچیدگیها و عدم اطمینانهای عصر دیجیتال گفتگو شود.
👤 در هدلاین رشد، ارائهدهندگانی از کسب وکارهای دیجیتال برتر کشور همچون دیجیکالا، گلرنگ، ازکی، بیتپین، زرینپال، پیندو و ... حضور دارند و به انتقال تجربه و بررسی چالشها و فرصتهای رشد کسبوکار در ایران میپردازند.
⏰ زمان و مکان:
سهشنبه 29 آبان ساعت 15 الی 20
سالن الغدیر دانشکده مدیریت صنعتی و فناوری دانشکدگان مدیریت دانشگاه تهران
✅ ثبتنام رایگان با ظرفیت محدود ویژه دانشجویان دانشکدگان مدیریت 👇🏻
🔗 https://utechevents.ir/event/headline/
⭕️ منتظرتان هستیم!
_ _ _ _ _ _ _ _ _ _ _ _ _
💬 رسانههای دانشکده
🔸 وبسایت 🔹 تلگرام 🔸 اینستاگرام 🔹 لینکدین
|
زمان ظهور AGI
داریو آمودی (Dario Amodei) مدیرعامل Anthropic در مصاحبه جدید خود با پادکست Lex Fridman زمان ظهور AGI را سال ۲۰۲۶-۲۰۲۷ میلادی پیشبینی کرد! برای مشاهده کامل این اپیزود اینجا را مشاهده کنید.
اخیراً سم آلتمن نیز در مصاحبه با Y-Combinator این زمان را سال ۲۰۲۵ میلادی پیشبینی کرد (اینجا را مشاهده کنید).
منظور از AGI سطحی از هوشمصنوعی است که در حد انسان و یا حتی فراتر از انسان توانایی درک و حل مسائل متنوع در حوزههای مختلف را دارد. تمامی سیستمهای هوشمصنوعی معرفی شده تا الان مشابه انسان Generality نداشته و تنها به مجموعهای محدود از تسکها اشراف دارند.
[💡به نظرم این صحبتها بیشتر جنبه مارکتینگ داره، رسیدن به AGI صفر و یک نیست. یعنی چیزی نیست که تو آزمایشگاه یک شبه ساخته بشه و فرداش اعلام بشه. ضمن اینکه تعریف مشخص و اجماع شدهای روش وجود نداره و هر کسی میتونه با دستکاری تعریف روش ادعا داشته باشه. مسائل حل نشده زیادی باقی مونده که جواب دادن بهشون کار یک نفر یا یه کمپانی نیست!]
#agi
#sam_altman
#dario_amodei
🌑 آقای هوش مصنوعی🌑
🎥رسانه هوش مصنوعی دانشگاه تهران
@MrArtificialintelligence
|
✍️ کارمندان دیجیتال، انقلاب بعدی در نیروی کار
هوش مصنوعی دیگر فقط یک ابزار نیست - انقلاب بعدی نیروی کار است!
جنسن هوانگ، مدیر عامل انویدیا، در طول سخنرانی ویژه خود در اجلاس هوش مصنوعی ژاپن، چشم انداز جسورانه ای را برای عوامل هوش مصنوعی به عنوان «کارمندان دیجیتال» معرفی کرد – سیستم های هوش مصنوعی تخصصی که در کنار انسان ها در سراسر صنایع کار خواهند کرد.
📢 نکات مهم:
✅ عوامل هوش مصنوعی نقش هایی را در بازاریابی، پشتیبانی مشتری، زنجیره تامین، طراحی تراشه، توسعه نرم افزار و کشف دارو بر عهده خواهند داشت
✅ آنها با خودکارسازی کارهای پیچیده با هوش انسان مانند، صنایع را متحول خواهند کرد
✅ انویدیا در خط مقدم این انقلاب است و نحوه عملکرد کسب و کارها را تغییر می دهد
💡 چرا این مهم است:
🔹 آیا کارمندان دارای هوش مصنوعی آینده کار هستند؟ 🤔
🔹 آیا این می تواند جایگزین میلیون ها شغل شود یا فرصت های جدیدی ایجاد کند؟
🔹 چشم انداز هوانگ نشان دهنده تغییر به سمت یکپارچه سازی کامل هوش مصنوعی است
#آینده_مشاغل #هوش_مصنوعی #کارمند_دیجیتال
🌑 آقای هوش مصنوعی🌑
🎥رسانه هوش مصنوعی دانشگاه تهران
@MrArtificialintelligence
|
🏮تحلیل
رقابت میان آمریکا و چین در حوزه هوش مصنوعی را میتوان نبردی برای تعریف ماهیت آینده بشریت دانست. این جنگ تکنولوژیک تنها بر سر برتری اقتصادی یا نظامی نیست، بلکه تلاشی است برای تسلط بر ابزارهایی که ذات قدرت، ارتباطات و حتی ارزشهای انسانی را شکل میدهند.
چین با پروژههایی نظیر DeepSeek، به دنبال خلق نظم جدیدی است که در آن دادهها، هوش مصنوعی و فناوری، محور تصمیمگیری و حکمرانی شوند. این فناوریها نهتنها بهرهوری را افزایش میدهند، بلکه امکان کنترل دقیقتر بر جوامع را فراهم میکنند. از این منظر، هوش مصنوعی به ابزار جدیدی برای مشروعیتبخشی ایدئولوژیک و تثبیت نفوذ ژئوپلیتیکی تبدیل شده است.
آمریکا، بهعنوان وارث عصر روشنگری و مهد فناوری مدرن، در تلاش است تا این نظم نوظهور را به چالش بکشد و آزادیهای فردی و خلاقیت غیرمتمرکز را بهعنوان ارزشهای محوری خود حفظ کند. رقابت در هوش مصنوعی، بازتابی از این دو جهانبینی متضاد است: مدرنیته کنترلی چین در برابر مدرنیته آزاد آمریکا.
در این جنگ، هوش مصنوعی دیگر صرفاً ابزاری نیست؛ بلکه استعارهای است از اینکه چه کسی آینده را تعریف خواهد کرد. آیا آینده جهانی متمرکز و دادهمحور خواهد بود، یا نظامی انعطافپذیر و مبتنی بر تنوع انسانی؟ پاسخ این سؤال، آینده تمدن ما را شکل خواهد داد.
|
در طول تاریخ، قدرت از مسیرهای مشخصی عبور کرده است: نیروی فیزیکی، مالکیت منابع، برتری اقتصادی و در نهایت، تسلط بر اطلاعات. اما اکنون، برای اولین بار، رقابت نه بر سر مالکیت اطلاعات، بلکه بر سر تولید و پردازش هوش در جریان است. ایالات متحده و چین، درک کردهاند که AGI صرفاً یک پیشرفت فناورانه نیست، بلکه یک تغییر پارادایم در مفهوم قدرت است—تغییری که میتواند نظم جهانی را از بنیان دگرگون کند.
دیدار سام آلتمن با دونالد ترامپ و لیانگ ونفنگ با شی جین پینگ را نباید تنها در چارچوب تصمیمات سیاستگذاران دید. این لحظات نشان میدهند که دولتها به این نتیجه رسیدهاند که آیندهی کنترل، نه در تسلیحات، نه در اقتصاد، بلکه در کیفیت و عاملیت هوش مصنوعی نهفته است. هر دو کشور میدانند که تسلط بر AGI به معنای تعریف قوانین جدید بازی خواهد بود—قوانینی که شاید دیگر توسط انسانها نوشته نشوند.
اما این رقابت برخلاف رقابتهای صنعتی یا تسلیحاتی گذشته، یک چالش منحصربهفرد دارد: آیا انسان میتواند بر چیزی که از او باهوشتر خواهد شد، کنترل داشته باشد؟ این بار، ما نه با یک فناوری، بلکه با چیزی روبهرو هستیم که میتواند فکر کند، بیاموزد و حتی برای خودش تصمیم بگیرد. اگر این مسیر بدون کنترل ادامه یابد، در نهایت، تصمیمگیرندهی نهایی دیگر نه واشنگتن خواهد بود، نه پکن، نه سیلیکون ولی و نه شنژن
بلکه خودِ هوش مصنوعی خواهد بود.
و در آن لحظه، چیزی اساسی تغییر خواهد کرد. برای نخستین بار در تاریخ، تصمیمگیری دیگر به ارادهی انسانی وابسته نخواهد بود. AGI میتواند سیستمهای اقتصادی، علمی و حتی سیاسی را چنان بازآرایی کند که ساختارهای کنونی دیگر معنا نداشته باشند. شاید حکومتها و شرکتها همچنان در ظاهر پابرجا بمانند، اما قواعد بازی را دیگر آنها تعیین نخواهند کرد.
اینجاست که پرسش نهایی مطرح میشود: آیا این رقابت، تنها یک نبرد فناورانه است، یا لحظهای تاریخی که در آن انسان جایگاه خود را در جهان بازتعریف میکند؟ اگر در گذشته، ما خالق ابزار بودیم، اکنون ابزاری را میسازیم که شاید روزی خودش تصمیم بگیرد که ما را دیگر نیاز ندارد.
و شاید آن روز، رقابت امروز دیگر هیچ معنایی نداشته باشد.
#تحلیل_هوش_مصنوعی
|
Data Scientist Roadmap
|
|-- 1. Basic Foundations
| |-- a. Mathematics
| | |-- i. Linear Algebra
| | |-- ii. Calculus
| | |-- iii. Probability
| | -- iv. Statistics
| |
| |-- b. Programming
| | |-- i. Python
| | | |-- 1. Syntax and Basic Concepts
| | | |-- 2. Data Structures
| | | |-- 3. Control Structures
| | | |-- 4. Functions
| | | -- 5. Object-Oriented Programming
| | |
| | -- ii. R (optional, based on preference)
| |
| |-- c. Data Manipulation
| | |-- i. Numpy (Python)
| | |-- ii. Pandas (Python)
| | -- iii. Dplyr (R)
| |
| -- d. Data Visualization
| |-- i. Matplotlib (Python)
| |-- ii. Seaborn (Python)
| -- iii. ggplot2 (R)
|
|-- 2. Data Exploration and Preprocessing
| |-- a. Exploratory Data Analysis (EDA)
| |-- b. Feature Engineering
| |-- c. Data Cleaning
| |-- d. Handling Missing Data
| -- e. Data Scaling and Normalization
|
|-- 3. Machine Learning
| |-- a. Supervised Learning
| | |-- i. Regression
| | | |-- 1. Linear Regression
| | | -- 2. Polynomial Regression
| | |
| | -- ii. Classification
| | |-- 1. Logistic Regression
| | |-- 2. k-Nearest Neighbors
| | |-- 3. Support Vector Machines
| | |-- 4. Decision Trees
| | -- 5. Random Forest
| |
| |-- b. Unsupervised Learning
| | |-- i. Clustering
| | | |-- 1. K-means
| | | |-- 2. DBSCAN
| | | -- 3. Hierarchical Clustering
| | |
| | -- ii. Dimensionality Reduction
| | |-- 1. Principal Component Analysis (PCA)
| | |-- 2. t-Distributed Stochastic Neighbor Embedding (t-SNE)
| | -- 3. Linear Discriminant Analysis (LDA)
| |
| |-- c. Reinforcement Learning
| |-- d. Model Evaluation and Validation
| | |-- i. Cross-validation
| | |-- ii. Hyperparameter Tuning
| | -- iii. Model Selection
| |
| -- e. ML Libraries and Frameworks
| |-- i. Scikit-learn (Python)
| |-- ii. TensorFlow (Python)
| |-- iii. Keras (Python)
| -- iv. PyTorch (Python)
|
|-- 4. Deep Learning
| |-- a. Neural Networks
| | |-- i. Perceptron
| | -- ii. Multi-Layer Perceptron
| |
| |-- b. Convolutional Neural Networks (CNNs)
| | |-- i. Image Classification
| | |-- ii. Object Detection
| | -- iii. Image Segmentation
| |
| |-- c. Recurrent Neural Networks (RNNs)
| | |-- i. Sequence-to-Sequence Models
| | |-- ii. Text Classification
| | -- iii. Sentiment Analysis
| |
| |-- d. Long Short-Term Memory (LSTM) and Gated Recurrent Units (GRU)
| | |-- i. Time Series Forecasting
| | -- ii. Language Modeling
| |
| -- e. Generative Adversarial Networks (GANs)
| |-- i. Image Synthesis
| |-- ii. Style Transfer
| -- iii. Data Augmentation
|
|-- 5. Big Data Technologies
| |-- a. Hadoop
| | |-- i. HDFS
| | -- ii. MapReduce
| |
| |-- b. Spark
| | |-- i. RDDs
| | |-- ii. DataFrames
| | -- iii. MLlib
| |
| -- c. NoSQL Databases
| |-- i. MongoDB
| |-- ii. Cassandra
| |-- iii. HBase
| -- iv. Couchbase
|
|-- 6. Data Visualization and Reporting
| |-- a. Dashboarding Tools
| | |-- i. Tableau
| | |-- ii. Power BI
| | |-- iii. Dash (Python)
| | -- iv. Shiny (R)
| |
| |-- b. Storytelling with Data
| -- c. Effective Communication
|
|-- 7. Domain Knowledge and Soft Skills
| |-- a. Industry-specific Knowledge
| |-- b. Problem-solving
| |-- c. Communication Skills
| |-- d. Time Management
| -- e. Teamwork
|
-- 8. Staying Updated and Continuous Learning
|-- a. Online Courses
|-- b. Books and Research Papers
|-- c. Blogs and Podcasts
|-- d. Conferences and Workshops
`-- e. Networking and Community Engagement
Best Data Science & Machine Learning Resources: https://topmate.io/coding/914624
All the best 👍
🌑 آقای هوش مصنوعی
@MrArtificialintelligence
|
در دنیایی که سرعت تغییرات فناوری سرسامآور است، تحول دیجیتال دیگر یک انتخاب نیست، بلکه سرنوشتی است که ما را در بر گرفته است. دانشگاه، صنعت و حکمرانی دیگر مرزهای جداگانهای ندارند؛ آنها باید به یک اکوسیستم واحد تبدیل شوند، جایی که دانش و تجربه در هم تنیده میشوند تا مسیر آینده را شکل دهند.
اما این آینده تنها با ابزارهای دیجیتال ساخته نمیشود، بلکه با تغییری عمیق در طرز فکر رهبران آن امکانپذیر است. سازمانهایی که هوش مصنوعی را فقط به عنوان یک فناوری میبینند، دیر یا زود از رقابت حذف خواهند شد. آنچه اهمیت دارد، همسویی فکری مدیران ارشد با این تحول است—درک این حقیقت که هوش مصنوعی تنها یک ابزار نیست، بلکه یک تغییر بنیادین در ماهیت تصمیمگیری، یادگیری و نوآوری است.
در این میان، انسان چه جایگاهی دارد؟ آیا پاسخهای آمادهی هوش مصنوعی اندیشه را تضعیف میکنند یا فرصتی برای تفکر عمیقتر فراهم میآورند؟ تحول شناختی، بیش از تغییر فناوری، تغییری در نگاه ما به خود و جهان است. آینده نه از آن کسانی است که صرفاً میپذیرند، بلکه متعلق به کسانی است که با شهامت، این تغییر را میسازند.
https://www.aparat.com/v/cfzay2q
|
هوش مصنوعی برای شکار متقلبان مالیاتی
اکوفارس: دانشمندان به دنبال استفاده از هوش مصنوعی برای به دام انداختن فراریان مالیاتی هستند.
به گزارش اکوفارس ، همواره این نگرانی مطرح میشود که با توسعه هوش مصنوعی و ساخت روباتهایی که با جنبههای بیشتری از زندگی انسانها درهمآمیخته میشوند، آینده زندگی بشر در زمین در معرض خطرات پیشبینی نشدهای قرار گیرد.
از جمله شخصیتهایی که در این باره ادعایی مطرح کرده استفان هاوکینگ است که فکر می کند اگر روند توسعه هوش مصنوعی به همین منوال به پیش رود، تمدن انسانی در معرض خطر قرار گرفته و در نهایت توسط ماشینآلات هوشمند ساخت دست بشر نابود خواهد شد.
اما حالا محققان دانشگاه MIT با همکاری بنیاد فناورانه Mitre آیندهای خطرناک را این بار نه برای انسانهای عادی، بلکه برای آن دسته از تجار و کارآفرینانی ترسیم کردهاند که تمایلی به پرداخت مالیات ندارند. این محققان به دنبال استفاده از هوش مصنوعی برای شناسایی و به دام انداختن آن دسته از افراد حقیقی و حقوقی هستند که با تقلب کاری در پروندههای مالیاتی خود از پرداخت مالیات به دولت فرار میکنند.
از این فناوری برای بررسی موشکافانه تمامی راههای فرار و پوششهای نامرئیکننده متقلبان مالیاتی استفاده میشود.
|
همزمان با توسعه روباتها و ماشینهای هوشمند این پرسش مطرح می شود که آیا آنها می توانند خلاقیت به خرج داده و از قدرت تخیلشان استفاده کنند؟
به گزارش ساج نیوز، دو دانشمند شناخته شده در عرصه علوم روباتیک و هوش مصنوعی در پاسخ به این پرسش که توسط روزنامه گاردین مطرح شده به اظهار نظر پرداخته اند.
دکتر ماریا ترزا رودریگز از «گروه خلاقیت ماشینی» دانشگاه گلد اسمیت انگلیس می گوید: ما از مدتها پیش به کار در کنار ماشین آلاتی عادت کرده ایم که البته از سطح بالایی از توانایی شناختی برخوردار نیستند و دقیقا به همین دلیل است که بسیاری از مردم نمی توانند تصور کنند که این دسته از ماشین آلات توانایی چشمگیری در بروز رفتارهای شناختی داشته باشند.
این دانشمند می افزاید: مشکلی که درخصوص نمونه های اولیه این نوع ماشین آلات و تجهیزات کاربردی وجود دارد این است که وابستگی زیادی به تنظیمات (انسانی) و دانش سازندگانشان داشته اند که این مسأله به شکل گیری محدودیتهایی برای آنها می شود.
به طور کلی انسانها موجودات خلاقی هستند زیرا توانایی درک ویژگی وسایل و ساختارها را دارند و با تکیه بر دانشی که از این طریق به دست می آورند به آن سطح از قابلییتهای خیره کننده رسیده اند که می توانند تغییرات زیادی در دنیا ایجاد کنند.
به عقیده ماریا ترزا، اگر قرار باشد ماشین آلات روباتیکی اطرافمان هم چیزی به جز یک سری دستگاههای ساده باشند، نیاز به استفاده از دانشی دارند که آنها را به ساختارهایی هوشمند و خلاق تبدیل کند.
وی می افزاید: تحقیقاتی که در زمینه هوش مصنوعی انجام می گیرد نیز در راستای غلبه بر چالشها و محدودیتهایی است که ناشی از لزوم حضور انسان و تنظیمات انسانی در توسعه این ساختارهاست. هدف نهایی از ادامه این تحقیقات دستیابی به آن سطح از هوش مصنوعی است که خلاقیت و انعطاف پذیری دو ویژگی عمده آن باشد.
مایکل اوسبورن از دانشگاه آکسفورد که در زمینه توسعه ماشین آلات هوشمند فعالیت تحقیقاتی دارد نیز می گوید: نباید انتظار داشت که در آینده نزدیک روباتها به سطح بسیار بالایی از خلاقیت دست یابند.
به عقیده این محقق، تولید ماشین آلات خودکار با برخورداری از ویژگی خلاقیت و انعطاف پذیری به مجموعه ای از دستورالعمل های کامل و دقیقی نیاز است تا هدف نهایی یعنی بروز رفتارهای خلاقانه از سوی روباتها محقق شود.
اوسبورن از آن دسته محققانی است که به طراحی الگوریتی ویژه برای ماشین آلات روباتیکی برای تشخیص بسیاری از نکات و حالات عقیده دارد.
|
کنفرانس بین المللی پژوهش های کاربردی در کامپیوتر و فن آوری اطلاعات - بهمن 94
------
محورهای همایش کامپیوتر:
مهندسی نرم افزار
سیستم های نرم افزاری، مهندسی نرم افزار و روش های صوری، معماری نرم افزار، مهندسی وب، پایگاه داده عملیاتی و پایگاه داده تحلیلی، داده کاوی، امنیت اطلاعات و امنیت سیستم های نرم افزاری، تست و ارزیابی سیستم های نرم افزاری، نظریه محاسبات، مباحث ویژه در مهندسی نرم افزار، سایر مباحث مرتبط با مهندسی نرم افزار و سایر موارد مرتبط.
هوش مصنوعی
هوش مصنوعی و یادگیری، بینایی ماشین و پردازش تصویر، محاسبات نرم، پردازش صوت و سیگنال، شناسایی الگو، پردازش زبان طبیعی، سیستم چند عامله، مباحث ویژه در سیستم هوشمند و محاسبات نرم، سایر مباحث مرتبط با سیستم های هوشمند و سایر موارد مرتبط.
معماری کامپیوتر
معماری کامپیوتر، سیستم های حسابی، قابلیت اطمینان، تحمل پذیری اشکال و آزمون پذیری، معماری سیستم های موازی، مدلسازی و ارزیابی کارآیی سیستم های کامپیوتری، مدارهای مجتمع در مقیاس بسیار بزرگ، سیستم های نهفته و بی درنگ، سیستم های قابل پیکربندی، فناوری نوظهور، مباحث ویژه در سیستم دیجیتالی، شبکه های ارتباطی موبایل و بی سیم، سایر مباحث مرتبط با سیستم های دیجیتالی و سایر موارد مرتبط.
فن آوری اطلاعات و ارتباطات
شبکه های کامپیوتری، انتقال داده، امنیت شبکه های کامپیوتری، محاسبات اینترنتی، مشبک و خوشه ای، پردازش موازی و سیستم های توزیع شده، مدلسازی و ارزیابی کارآیی شبکه های کامپیوتری، مباحث ویژه در شبکه های کامپیوتری و سیستم توزیع شده، معماری سازمانی فناوری اطلاعات، یادگیری الکترونیکی، سیستم های محاسباتی انسان محور، مدیریت فناوری اطلاعات، تجارت الکترونیکی، سیستم های حمل و نقل و انتقال و ارتباطات هوشمند، معماری اطلاعات و مدیریت دانش و سایر موارد مرتبط.
و تمامی موضوعات مرتبط با علوم کامپیوتر
محورهای همایش فن آوری اطلاعات:
مدیریت و برنامهریزی فناوری اطلاعات
یادگیری الکترونیکی
دولت الکترونیکی
تجارت و بانکداری الکترونیکی
شبکههای اجتماعی
رایانش مجازی
معماری سازمانی
سیستمهای اطلاعاتی مقیاس وسیع
یکپارچهسازی سیستمهای سازمانی
تعاملپذیری
خودتطبیقی
سیستمهای تصمیمیار
مهندسی دانش
مدیریت و مهندسی خدمات
و تمامی موضوعات مرتبط با فن آوری اطلاعات
محورهای همایش
برگزار کنندگان: دانشگاه صنعتی مالک اشتر
دانشگاه علمی کاربردی
مهلت ارسال چکیده مقالات:
مهلت ارسال متن کامل مقالات: 15 دی 1394
تاریخ برگزاری همایش: 15 بهمن 1394
سایت همایش: www.citconf.ir
تلفن تماس دبیرخانه: 22640491-22614617-226146021
آدرس دبیرخانه: تهران - خیابان شریعتی- دو راهی قلهک- خ شهید پابرچا- بلوار آینه- گل یخ غربی- پلاک 16
محل برگزاری: تهران
ایمیل: [email protected]
|
محققان ایرانی دانشگاه سیمون فریزر کانادا سیستم پیشرفته شبیه ساز رانندگی طراحی کردهاند
فرمان این خودرو در دست کیست؟
محققانی که در حوزه هوش مصنوعی تحقیق میکنند بر این باورند روزی خواهد رسید که رباتها - یا به عبارتی فناوریهای مبتنی بر هوش مصنوعی ـ به چالش جدی برای میلیونها شاغل در این کره خاکی تبدیل شود . حتی امنیت شغلی بسیاری از شاغلان در صنایعی که ممکن است تصورش را هم نکنید در معرض خطر قرار خواهد گرفت.
یکی از این صنایع صنعت خودروسازی است که این روزها بیش از پیش در مسیر هوشمندسازی در حرکت است. در دنیای امروز هنوز خودروهای بدون راننده یا به اصطلاح «خودروهای خودران» از جمله فناوری های لوکس به شمار می آیند که به نظر می رسد نمی توانند به سرعت جایگزین خودروهای معمولی شوند. اما پیش بینی می شود با توجه به خطاها و محدودیت های انسانی، این خودروها باید دیر یا زود جایگزین خودروهای معمولی شود.
به گزارش جام جم آنلاین، سالانه شمار زیادی از افراد در تصادفات رانندگی جان خود را از دست می دهند. در مقابل خودروهای خودران در مقایسه با راننده هایی که ممکن است به هر علتی دچار خطا شوند، به مراتب ایمن تر هستند. این خودروها به پیشرفته ترین فناوری ها مجهز شده اند تا با سرعت و امنیتی بیشتر مسافران شان را به مقصد برسانند.
|
کارگاه بینایی ماشین (Kinect)
ارائه دهنده: مهندس طاهر عباسی
با مقدمه ای از: پروفسور رضا صفابخش، استاد تمام دانشکده مهندسی کامپیوتر دانشگاه امیرکبیر
صادر کننده مدرک: اداره انجمن های علمی دانشگاه امیرکبیر + پژوهشکده رباتیک امیرکبیر
مدت: 1 روز – چهارشنبه 27 آبان ماه
هزینه: 95 هزار تومان (30 درصد تخفیف برای دانشجویان و فارغ التحصیلان امیرکبیر)
ظرفیت: 15 نفر (الویت با کسانی است که زودتر ثبت نام کنند)
ثبت نام: مبلغ کارگاه را به شماره حساب ۲۱۷۷۵۱۹۰۰۱۰۰۲ بانک ملی بنام درآمدهای اختصاصی دانشگاه صنعتی امیرکبیر واریز کرده و عکس فیش واریرزی به همراه مشخصات ثبت نام کننده (نام و نام خانوادگی، شماره دانشجویی، دانشگاه، شماره تماس و …) را به آدرس ایمیل [email protected] ارسال نمایید.
هدف: امروزه ابزارهای گوناکونی سخت افزاری و نرم افزاری در حوزه بینایی ماشین معرفی شده است. در این کارگاه ابتدا توضیحات مقدماتی در مورد سنسور Kinect و کتابخانه های OpenCV و OpenTLD شرح داده می شود و سپس چند مثال با استفاده از این ابزار انجام داده می شود.
مطالب:
بینایی ماشین و جایگاه آن در رباتیک
شرایط و پارامترهای تصویربرداری، انواع فرمتهای تصویر
الگوریتمهای پایه بینایی ماشین، تقطیع تصاویر
بینایی ماشین در ربات فوتبالیست (تشخیص اشیاء، ممانها، تشخیص خطوط، مکانیابی)
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.