مقدمه مفهومی درباره واژه معیار (Criterion) در علوم کامپیوتر به ویژگی یا استانداردی گفته می شود که مبنای ارزیابی، انتخاب یا طبقه بندی موجودیت های مختلف قرار می گیرد. این مفهوم پایه ای در طراحی الگوریتم ها و سیستم های ارزیابی است. کاربرد واژه در برنامه نویسی یا زیرشاخه های فناوری اطلاعات در طراحی الگوریتم های بهینه سازی، در سیستم های ارزیابی کیفیت نرم افزار، در معیارهای پذیرش تست های نرم افزاری، در شاخص های عملکرد سیستم، و در هر جایی که نیاز به سنجش و مقایسه باشد استفاده می شود. مثال های واقعی و کاربردی در زندگی یا پروژه های IT معیارهای پذیرش کاربر در سیستم های احراز هویت، استانداردهای کدنگاری در بازبینی کد، معیارهای انتخاب الگوریتم های یادگیری ماشین، شاخص های عملکرد پایگاه داده، استانداردهای امنیتی در توسعه نرم افزار. نقش واژه در توسعه نرم افزار یا معماری سیستم ها در معماری سیستم ها، معیارها پایه طراحی تصمیم گیری ها هستند. در سیستم های توزیع شده، معیارهای تخصیص منابع مهم هستند. در معماری های مبتنی بر کیفیت خدمات (QoS)، معیارها تعیین کننده سطح خدمات هستند. شروع استفاده از این واژه در تاریخچه فناوری و تکامل آن در سال های مختلف مفهوم معیار از اولین روزهای علوم کامپیوتر وجود داشته است. در دهه 1970 با ظهور مهندسی نرم افزار رسمیت یافت. امروزه در چارچوب های مدرن مانند DevOps، معیارهای پیچیده تری برای ارزیابی سیستم ها استفاده می شود. تفکیک آن از واژگان مشابه معیار با شاخص (Metric) تفاوت دارد: شاخص قابل اندازه گیری است در حالی که معیار می تواند کیفی باشد. همچنین با استاندارد (Standard) که مورد توافق عمومی است متفاوت است. شیوه پیاده سازی واژه در زبان های برنامه نویسی مختلف در Python با توابع ارزیابی، در SQL با عبارات WHERE، در Java با رابط های Comparator، در الگوریتم های مرتب سازی با توابع مقایسه، در تست نویسی با assertionها. چالش ها یا سوءبرداشت های رایج در مورد آن تعریف معیارهای مبهم یا غیرقابل اندازه گیری، عدم توجه به روابط بین معیارهای مختلف، و تصور اینکه یک معیار می تواند همه جوانب را پوشش دهد از چالش های رایج هستند. نتیجه گیری کاربردی برای استفاده در متون تخصصی و آموزشی انتخاب معیارهای مناسب و دقیق می تواند کیفیت ارزیابی ها و تصمیم گیری ها را بهبود بخشد. معیارها باید متناسب با زمینه و اهداف سیستم طراحی شوند.