مسئولية المراجع الخارجى في ظل مخاطر التواطؤ داخل تقنيات الذكاء الاصطناعى | ||
المجلة العلمية للدراسات المحاسبية | ||
Volume 7, Issue 3, July 2025, Pages 56-98 PDF (1.27 M) | ||
Document Type: المقالة الأصلية | ||
DOI: 10.21608/sjar.2025.457216 | ||
Authors | ||
ياسر سعيد محمود الوردانى* 1; محمود محمد عبدالمنعم منسى* 2; خالد جمعة السيد حسين* 3 | ||
1مدرس المحاسبة والمراجعة كلية التجارة - جامعة الأزهر | ||
2مدرس المحاسبة والمراجعة كلية التجارة - جامعة الأزهر. | ||
3مدرس المحاسبة والمراجعة كلية التجارة - جامعة الأزهر.. | ||
Abstract | ||
تهدف هذه الدراسة إلى تحليل أثر مخاطر التواطؤ داخل تقنيات الذكاء الاصطناعي على مستوى تحمل المراجع الخارجي لمسئوليته المهنية والقانونية، في ضوء التحديات التقنية المتزايدة المرتبطة بإستخدام الخوارزميات الذكية في بيئة المراجعة. أعتمدت الدراسة على المنهج الوصفي التحليلي، وتم جمع البيانات ميدانيًا باستخدام أداة استبيان موجّهة إلى عينة من المراجعين في مصر، وشمل التحليل خمسة أبعاد أساسية تمثّل أنواع المخاطر التقنية (مثل التحيز الخوارزمي، والتواطؤ التقني، وضعف الشفافية)، إضافة إلى متغيرات ترتبط بالمسئولية المهنية والقانونية للمراجع. توصلت النتائج إلى أن بعض أدوات الذكاء الاصطناعي تُظهر تحيزات مدمجة تؤثر سلبًا على قدرة المراجع على اكتشاف الأخطاء الجوهرية، وتوصلت أيضاً الى أن زيادة مخاطر التواطؤ في البرمجة تؤدى الى زيادة مسئولية المراجع عن الإفصاح وتفسير القرارات، كما توصلت أيضاً الى أن عدم فهم الخوارزميات المعقدة (Black-box AI) يقيد قدرة المراجع على ممارسة الحكم المهني، بالاضافة الى أن نقص إختبارات الأداء الفني للأدوات الذكية يزيد من فرص المساءلة القانونية. أوصت الدراسة بـضرورة مشاركة المراجع في تطوير أدوات الذكاء الاصطناعي، وفرض معايير مهنية ملزمة بشأن الإفصاح والحكم المهني في بيئة الذكاء الاصطناعي، وتوفير تدريب تقني مستمر للمراجعين حول أدوات الذكاء الاصطناعي وآليات عملها. This study aims to analyze the impact of collusion risks within artificial intelligence (AI) technologies on the external auditor’s level of professional and legal responsibility, in light of the growing technological challenges associated with the use of intelligent algorithms in the audit environment. The study adopted a descriptive-analytical methodology and collected data through a field survey directed at a sample of auditors In Egypt. The analysis covered five core dimensions representing types of technical risks (such as algorithmic bias, technical collusion, and lack of transparency), In addition to variables related to the auditor's professional and legal responsibility. The results revealed that some AI tools exhibit embedded biases that negatively affect the auditor’s ability to detect material misstatements. The study also found that increased collusion risks in programming lead to greater responsibility for the auditor to disclose and explain decisions. Furthermore, the complexity and opacity of certain AI algorithms (Black-box AI) were found to limit the auditor’s ability to exercise professional judgment. Additionally, the lack of performance testing for intelligent tools increases the likelihood of legal accountability. The study recommends the active involvement of auditors in the development of AI tools, the enforcement of mandatory professional standards regarding disclosure and judgment in AI-supported environments, and the provision of continuous technical training for auditors on how AI tools function. | ||
Keywords | ||
الذكاء الاصطناعى- التواطؤ التقنى- المسئولية القانونية-الافصاح المهنى-التحيز الخوارزمى Artificial Intelligence; Technical Collusion; Legal Responsibility; Professional Disclosure; Algorithmic Bias | ||
Statistics Article View: 14 PDF Download: 8 |