تطبيق التعلم العميق في التعرف على سلوك الماشية: مراجعة منهجية للأدبيات Application of deep learning for livestock behaviour recognition: A systematic literature review

المجلة: Computers and Electronics in Agriculture، المجلد: 224
DOI: https://doi.org/10.1016/j.compag.2024.109115
تاريخ النشر: 2024-06-27

تطبيق التعلم العميق في التعرف على سلوك الماشية: مراجعة منهجية للأدبيات

علي رهان , محمد سعد رفاق , مد. جنيد حسن , فرقان أسغر , علي كاشف بشير و تانيا دوتوريني المركز الوطني للغوص تحت الماء، كلية الحوسبة، جامعة روبرت جوردون، 3 شارع دولي، دايس، أبردين، AB21 OBH، المملكة المتحدة مدرسة ولفسون للهندسة الميكانيكية، جامعة لوفبورو، لوفبورو، LE11 3TU، المملكة المتحدة قسم هندسة نظم الطاقة، جامعة الزراعة، فيصل آباد، 38000، باكستان قسم الحوسبة والرياضيات، جامعة مانشستر متروبوليتان، مانشستر، M15 6BY، المملكة المتحدة كلية الطب البيطري والعلوم، جامعة نوتنغهام، حرم سوتون بونينغتون، لوفبورو، LE12 5RD، المملكة المتحدة

معلومات المقال

الكلمات المفتاحية:

الزراعة الدقيقة
التعلم العميق (DL)
الذكاء الاصطناعي (AI)
التعرف على السلوك
الزراعة الدقيقة للماشية

الملخص

مراقبة صحة ورفاهية الماشية هي مهمة شاقة وتحتاج إلى جهد كبير كانت تُنفذ سابقًا يدويًا بواسطة البشر. ومع ذلك، مع التقدم التكنولوجي الأخير، اعتمدت صناعة الماشية أحدث تقنيات الذكاء الاصطناعي والرؤية الحاسوبية المدعومة بنماذج التعلم العميق (DL) التي تعمل في جوهرها كأدوات لصنع القرار. تم استخدام هذه النماذج سابقًا لمعالجة العديد من القضايا، بما في ذلك تحديد هوية الحيوانات الفردية، تتبع حركة الحيوانات، التعرف على أجزاء الجسم، وتصنيف الأنواع. ومع ذلك، على مدار العقد الماضي، كان هناك اهتمام متزايد باستخدام هذه النماذج لفحص العلاقة بين سلوك الماشية والمشاكل الصحية المرتبطة بها. تم تطوير العديد من المنهجيات المعتمدة على التعلم العميق للتعرف على سلوك الماشية، مما يتطلب مسح وتجميع أحدث ما توصلت إليه الأبحاث. تم إجراء دراسات مراجعة سابقًا بطريقة عامة جدًا ولم تركز على مشكلة محددة، مثل التعرف على السلوك. حسب علمنا، لا توجد حاليًا دراسة مراجعة تركز على استخدام التعلم العميق بشكل خاص للتعرف على سلوك الماشية. نتيجة لذلك، يتم إجراء هذه المراجعة المنهجية للأدبيات (SLR). تم إجراء المراجعة من خلال البحث في عدة قواعد بيانات إلكترونية شهيرة، مما أسفر عن 1101 منشور. بعد تقييمها من خلال معايير الاختيار المحددة، تم اختيار 126 منشورًا. تم تصفية هذه المنشورات باستخدام معايير الجودة التي أسفرت عن اختيار 44 دراسة أولية عالية الجودة، والتي تم تحليلها لاستخراج البيانات للإجابة على أسئلة البحث المحددة. وفقًا للنتائج، حل التعلم العميق 13 مشكلة في التعرف على السلوك تتعلق بـ 44 فئة سلوكية مختلفة. تم استخدام 23 نموذجًا للتعلم العميق و24 شبكة، حيث كانت CNN وFaster R-CNN وYOLOv5 وYOLOv4 هي النماذج الأكثر شيوعًا، وVGG16 وCSPDarknet53 وGoogLeNet وResNet101 وResNet50 هي الشبكات الأكثر شعبية. تم استخدام عشرة مصفوفات مختلفة لتقييم الأداء، حيث كانت الدقة والموثوقية الأكثر استخدامًا. كانت الانسداد والالتصاق، عدم توازن البيانات، والبيئة المعقدة للماشية هي التحديات الأكثر بروزًا التي أبلغت عنها الدراسات الأولية. أخيرًا، تم مناقشة الحلول المحتملة واتجاهات البحث في هذه الدراسة SLR للمساعدة في تطوير أنظمة التعرف على سلوك الماشية بشكل مستقل.

1. المقدمة

يعتبر قطاع تربية الماشية حيويًا في النظام الغذائي العالمي، حيث يساهم بشكل كبير في الأمن الغذائي، وتطوير الزراعة، وتقليل الفقر. وفقًا لمنظمة الأغذية والزراعة (FAO) التابعة للأمم المتحدة (UN)، تساهم الماشية من الناتج الزراعي العالمي، حيث يعتمد 1.3 مليار شخص على الماشية في كسب عيشهم، وأمنهم الغذائي والتغذوي (منظمة الأغذية والزراعة للأمم المتحدة 2022). تتضمن تربية الماشية إدارة وتربية الحيوانات المحلية، مثل الأبقار، والخنازير، والدواجن، لإنتاج اللحوم، والبيض، والحليب، ومنتجات الألبان الأخرى للاستهلاك البشري. مع زيادة عدد السكان وتغير أنماط التغذية، زاد الطلب على تربية الماشية في
العقود الأخيرة، مما جعلها واحدة من أسرع القطاعات الفرعية الزراعية نموًا. ومع ذلك، يأتي هذا النمو السريع بتكلفة. من المتوقع أنه إذا لم يتم إدارة نمو قطاع الماشية بشكل فعال، ستصبح قضايا الاستدامة البيئية والصحة العامة أكثر تعقيدًا (Nowodziński، 2021). لذلك، من الضروري اعتماد ممارسات تربية الماشية المستدامة لضمان أن الأجيال القادمة يمكن أن تستفيد من هذا القطاع.
في تربية الماشية، يعد دراسة سلوك الحيوانات أمرًا حيويًا لفهم كيفية تفسير الحيوانات واستجابتها لبيئتها. وهذا يمكننا من استخدام تقنيات فعالة لتحسين صحتها ورفاهيتها في المزارع. على الرغم من أن أبحاث سلوك الحيوانات قد أُجريت لسنوات عديدة، إلا أنه فقط مؤخرًا أصبح تطبيق سلوك الحيوانات على الإنتاج والصحة والرفاهية أكثر شيوعًا (Orihuela، 2021). يساعد تحديد سلوكيات معينة للحيوانات في اكتشاف أي مشاكل صحية محتملة. على سبيل المثال، قد يشير نمط المشي غير الطبيعي في الأبقار إلى العرج (Flower et al.، 2005)، (Flower et al.، 2007). علاوة على ذلك، يمكن أن تساعد مدة الوقت المستغرق في التغذية، وتكرار التغذية، وكمية الطعام المستهلكة في
الجدول 1
التسمية
التسمية
BiFPN شبكة هرمية ثنائية الاتجاه
Bi-LSTM ذاكرة طويلة وقصيرة المدى ثنائية الاتجاه
C3D التفاف ثلاثي الأبعاد
ConvLSTM ذاكرة طويلة وقصيرة المدى الالتفافية
CNN شبكة عصبية التفافية
LSTM ذاكرة طويلة وقصيرة المدى
CSPDarknet شبكة جزئية عبر المراحل تعتمد على Darknet
DHRN شبكة عالية الدقة العميقة
DNN شبكة عصبية عميقة
DRNet شبكة كثيفة متبقية
DRN-YOLO DenseResNet-You Only Look Once
ESCMobileNet شبكة موبايل نت مفصولة بشكل كبير
R-CNN شبكة عصبية التفافية قائمة على المنطقة
FCN شبكة تفافية كاملة
FD-CNN اختلافات الإطار-شبكة عصبية تفافية
FPN شبكة هرمية للميزات
ResNet شبكة عصبية متبقية
R-FCN شبكة تفافية كاملة قائمة على المنطقة
RNN شبكة عصبية متكررة
RPN شبكة اقتراح المنطقة
SAE مشفر تلقائي متفرق
SSD كاشف لقطة واحدة
STAGCN شبكة تفافية رسومية زمنية وتكيفية
TSN شبكة مقطع زمني
VGG مجموعة الهندسة البصرية
YOLO You Only Look Once
ZFNet شبكة زيلر وفيرغس
mAP متوسط الدقة
AP الدقة المتوسطة
IoU التقاطع على الاتحاد
MCC معامل ارتباط ماثيو
MPA متوسط دقة البكسل
تمييز بين الأبقار العرجاء وغير العرجاء (Thorup et al.، 2016). يمكن أن تؤدي الاضطرابات الصحية مثل الكيتوزية والتهاب الضرع إلى تقليل تناول العلف وإنتاج الحليب (Bareille et al.، 2003). يرتبط سلوك الرضاعة لدى الخنازير ارتباطًا وثيقًا بوفاة الخنازير بسبب الجوع (Shankar et al.، 2009). أظهرت الأبحاث أن الحركات الجسدية الخطرة للخنازير يمكن أن تزيد من معدل وفيات الخنازير (Chidgey et al.، 2015). يعد التعرف المبكر على سلوك الحيوانات أمرًا حيويًا لتحسين عمليات إنتاج الحيوانات، وتحسين صحة ورفاهية الحيوانات، وزيادة جودة وإنتاجية المنتجات الحيوانية، ومنع الخسائر الناجمة عن الأمراض (Nasirahmadi et al.، 2017).
في المزارع التقليدية للماشية، يعتمد العمال ذوو الخبرة، والمزارعون، أو علماء سلوك الحيوانات على معرفتهم ومهاراتهم للتعرف على سلوك الحيوانات وعلاقته بالحالات الصحية الأساسية. ومع ذلك، نظرًا لأن بيئة مزارع الماشية معقدة للغاية، حيث تختلف
تُستغل أنواع الحيوانات في مجموعات كبيرة تُحتجز في أنظمة إنتاج مكثفة، ومن غير الواقعي مراقبة كل نشاط للحيوانات في الوقت الحقيقي. مع ظهور تقنيات الصناعة 4.0 في الأتمتة الصناعية، أصبح من الأكثر عملية إنشاء أنظمة يمكنها أداء هذه المهام بكفاءة واستقلالية أكبر. لقد أعادت التقنيات المتقدمة مثل الذكاء الاصطناعي (AI) تشكيل تربية الماشية الصناعية وأدت إلى ظهور مجالات “الزراعة الذكية” و”الزراعة الدقيقة” و”تربية الماشية الدقيقة” (غونكالفيس وآخرون، 2022). تستفيد هذه المجالات بشكل كبير من الذكاء الاصطناعي لتحليل البيانات وتوفير أدوات جديدة لمراقبة وإدارة سلوك وصحة الحيوانات. تمتلك هذه التقنيات الجديدة القدرة على إحداث ثورة في تربية الماشية التقليدية، مما يمكّن المزارعين من اتخاذ قرارات مستندة إلى البيانات تحسن من صحة ورفاهية وإنتاجية الحيوانات. يمكن أن تساعد تربية الماشية الدقيقة في تحسين عملية الإنتاج، وتقليل التكاليف، وتقليل الآثار البيئية من خلال توفير مراقبة وتحليل في الوقت الحقيقي لسلوك الحيوانات (غارسيا وآخرون، 2020). أيضًا، يمكن أن يؤدي دمج التقنيات المتقدمة في تربية الماشية إلى تحويل الصناعة، مما يؤدي إلى ممارسات أكثر استدامة وكفاءة تفيد كل من الحيوانات والمزارعين. أخيرًا، يمكن أن تساعد هذه التقنيات في مكافحة الأمراض المعدية والمستوطنة، وهي واحدة من التحديات الرئيسية في تربية الماشية المعاصرة، مع تداعيات على كل من الحيوانات (مثل التهاب الضرع) وصحة المستهلكين (غريس، 2019).
في تربية الماشية الدقيقة، تم استخدام فرع فرعي من الذكاء الاصطناعي يعرف باسم التعلم العميق (DL) على نطاق واسع لمعالجة قضايا مختلفة، بما في ذلك تحديد هوية الحيوانات الفردية (كياو وآخرون، 2020)، التعرف على أجزاء الجسم (هو وآخرون، 2020)، التعرف على الوجه (ياو وآخرون، 2019)، (شو وآخرون، 2022)، مراقبة الصحة (أتكينسون وآخرون، 2020)، تتبع الحيوانات وعدها (لاراجي وآخرون، 2020)، تصنيف السلالات (سانتوني وآخرون 2015)، تصنيف الأنواع (تاباك وآخرون، 2019)، والتعرف على السلوك.
تم تفضيل التعلم العميق على طرق التعلم السطحي الأخرى وطرق التعلم الآلي لأنه يستخدم شبكات عصبية عميقة متعددة الطبقات يمكنها تعلم التمثيلات من البيانات الخام بشكل مستقل، مما يسمح لها بكشف الأنماط والتفاصيل الدقيقة. يُعتبر الأفضل للتعامل مع مجموعات البيانات الكبيرة وعالية الأبعاد، خاصةً للمهام المعقدة مثل تصنيف الصور، واكتشاف الأشياء، والتحليل الزمني المكاني. على الرغم من العديد من تطبيقات التعلم العميق، لا يزال هناك نقص في الفهم حول استخدام نماذج التعلم العميق المختلفة لحل مشاكل محددة. نتيجة لذلك، لا تزال التحديات التي تواجه تصميم وتطوير ونشر هذه النماذج بحاجة إلى فهم كامل.
استكشفت الدراسات الاستعراضية الحديثة حول تربية الماشية الدقيقة جوانب الاستدامة والبيئة والاقتصاد الاجتماعي (لوفاريلي وآخرون 2020)، بالإضافة إلى تطبيقات التعلم الآلي لإدارة مزارع الألبان (سلوب وآخرون، 2021)، وتطبيقات التعلم العميق لتربية الأبقار الدقيقة (محمود وآخرون، 2021). بينما توفر هذه الدراسات رؤى قيمة حول استخدام التعلم العميق في تربية الماشية، إلا أنها عامة وتحتاج إلى مزيد من التركيز على استخدام التعلم العميق لحل مشكلة محددة مثل التعرف على السلوك. تختلف فعالية نماذج التعلم العميق والشبكات
بشكل كبير اعتمادًا على المشكلة التي تم تصميمها لحلها. على سبيل المثال، قد يؤدي نموذج التعلم العميق الذي تم إنشاؤه لتصنيف الأشياء في الصور إلى أداء ضعيف في مهمة زمنية مكانية معقدة مثل التعرف على السلوك. لذلك، من الضروري إجراء أبحاث لتحديد حالة التعلم العميق فيما يتعلق بالمشاكل المحددة في تربية الماشية الدقيقة. من خلال القيام بذلك، يمكننا فهم كيفية تصميم وتطوير ونشر نماذج التعلم العميق بشكل فعال، مما يؤدي في النهاية إلى نتائج أفضل لمزارعي الماشية وحيواناتهم. لذلك، يهدف هذا الاستعراض إلى فحص الاتجاهات والتطورات الحديثة في استخدام التعلم العميق لمشكلة محددة تتعلق بالتعرف على السلوك في تربية الماشية الدقيقة. سيوفر هذا الاستعراض نظرة شاملة على الأنواع المختلفة من مشاكل التعرف على السلوك التي تم تناولها باستخدام التعلم العميق. بالإضافة إلى ذلك، سيلخص الأساليب المختلفة المستخدمة لجمع البيانات، بما في ذلك الكمية والجودة ونوع البيانات المستخدمة في هذه الدراسات. علاوة على ذلك، سيناقش الأنواع المختلفة من نماذج التعلم العميق والشبكات التي تم تطويرها للتعرف على السلوك وكيفية تطبيقها على مشاكل محددة، وتحليل أداء نماذج التعلم العميق والشبكات، والتحديات المبلغ عنها في الأدبيات، والحلول المحتملة للتغلب على هذه التحديات.
تفاصيل هذه الدراسة مقدمة في الأقسام التالية. القسم 2 يحدد المنهجية المعتمدة لإجراء هذا الاستعراض، بما في ذلك بروتوكول الاستعراض، وأسئلة البحث، واستراتيجية البحث، ومعايير الاختيار للدراسات الأساسية. يتكون القسم 3 من النتائج مع إجابات على أسئلة البحث. يقدم القسم 4 مناقشة عامة وملاحظات. أخيرًا، يقدم القسم 5 الاستنتاج.

2. المنهجية

2.1. بروتوكول الاستعراض

تتبع هذه الدراسة البروتوكولات لإجراء مراجعة أدبية منهجية (SLR) المقدمة من (كيتشينهام وشارترز، 2007)، بعنوان “إرشادات لإجراء مراجعات أدبية منهجية في هندسة البرمجيات”. يوضح الشكل 1 الخطوات المتبعة في عملية SLR.
تم تقسيم عملية SLR إلى ثلاث خطوات. كانت الخطوة الأولى هي التخطيط للمراجعة، والتي تضمنت تحديد الحاجة إلى المراجعة، وتطوير أسئلة البحث، وتحديد استراتيجيات البحث. تركز استراتيجيات البحث على اختيار قواعد البيانات ذات الصلة، وتجميع سلاسل البحث المناسبة، وتحديد معايير الاختيار.
كانت الخطوة الثانية هي تنفيذ المراجعة، والتي تضمنت اختيار الدراسات الأساسية واستخراج البيانات وتلخيصها. تم استخدام سلاسل البحث للبحث في عناوين وقوائم الملخصات وحقول الكلمات الرئيسية لقواعد البيانات المختارة. تم تحليل المنشورات الناتجة بناءً على معايير الاختيار، وتم إدراج تلك التي استوفت المعايير في القائمة المختصرة. تم تطبيق عملية تصفية إضافية باستخدام معايير تقييم الجودة لضمان اختيار المنشورات عالية الجودة فقط كدراسات أساسية. تم استخراج البيانات المطلوبة للإجابة على أسئلة البحث وتلخيصها خلال هذه الخطوة.
الشكل 1: الخطوات المتبعة في عملية SLR.
كانت الخطوة الثالثة والأخيرة هي الإبلاغ عن النتائج. تم تقديم إجابات على أسئلة البحث والنتائج كأشكال وجداول داعمة.

2.2. أسئلة البحث

تم صياغة الأسئلة البحثية الستة التالية (RQs) لهذه الدراسة. تركزت هذه الأسئلة بشكل أساسي على استكشاف وجمع وتقديم التقدمات الحديثة في تطبيق منهجيات قائمة على التعلم العميق بشكل أساسي للتعرف على السلوك في تربية الماشية الدقيقة، والمعروفة أيضًا باسم التعرف على سلوك الماشية.
RQ.1: ما هي أهمية التعرف على السلوك في الماشية، وما هي أنواع المشاكل التي يتم حلها باستخدام التعلم العميق للتعرف على السلوك؟
RQ.2: ما هي الأساليب المستخدمة لجمع البيانات، وما هو نوع وكمية وجودة البيانات؟
RQ.3: ما هي نماذج التعلم العميق والشبكات المستخدمة للتعرف على سلوك الماشية؟
RQ.4: ما هي مقاييس الأداء والمنهجيات المستخدمة لتقييم نتائج نماذج التعلم العميق؟
RQ.5: أي نماذج التعلم العميق والشبكات كانت الأكثر فعالية لمشكلة معينة؟
RQ.6: ما هي التحديات المرتبطة بتطبيق التعلم العميق للتعرف على سلوك الماشية؟

2.3. قواعد البيانات واستراتيجية البحث

تم اختيار قواعد البيانات السبع الأكثر شعبية لهذه الدراسة: جوجل سكولار، ساينس دايركت، IEEE إكسبلور، سكوبس، ويب أوف ساينس، سبرينجر لينك، وويلي. بدأت عملية البحث الأولية من خلال دمج الكلمات الرئيسية كسلاسل بحث. في البداية، تم استخدام الكلمات الرئيسية: “التعرف على السلوك” و”التعلم العميق” للعثور على الدراسات ذات الصلة. احتوت النتائج على دراسات تتعلق بالتعرف على السلوك، بما في ذلك البشر. تم تعديل سلسلة البحث لتضييق الدراسات المرتبطة بالحيوانات فقط من خلال إضافة كلمات رئيسية مثل “الماشية” و”القطيع” و”الحيوانات”.
علاوة على ذلك، تم العثور على مصطلحات مرادفة مثل “الإجراء” و”النشاط” المتعلقة بالكلمة الرئيسية “السلوك”، و”الذكاء الاصطناعي” المتعلقة ب”التعلم العميق”، و”التحليل” و”الكشف” و”التصنيف” المتعلقة ب”التعرف” في الأدبيات وتم إضافتها لتحسين سلاسل البحث التي أسفرت عن سلسلة البحث العامة التالية: (“الإجراء” “النشاط” أو “السلوك”) و (“الذكاء الاصطناعي” أو “التعلم العميق”) و (“الحيوانات” أو “القطيع” أو “الماشية”) و (“التحليل” أو “التصنيف” أو “الكشف” أو “التعرف”).
بعد ذلك، كان يجب تعديل السلسلة العامة الناتجة بناءً على كل قاعدة بيانات. يسمح ScienceDirect فقط بحد أقصى من ثمانية أحرف بوليانية، ولدى Google Scholar حد محدد لعدد الأحرف المستخدمة في البحث. وبالتالي، تم تعديل الكلمات الرئيسية وفقًا لذلك. تم استخدام سلاسل البحث في ملخص كل قاعدة بيانات، وعنوان المقال، وحقول الكلمات الرئيسية. ومع ذلك، لا يسمح Wiley وSpringer Link بالبحث في الملخص، وعنوان المقال، وحقول الكلمات الرئيسية. وبالتالي، تم استخدام سلسلة البحث للعثور على الكلمات الرئيسية في أي مكان في المنشورات. بسبب ذلك، تم اختيار عدد كبير من المنشورات غير ذات الصلة في البداية (كما هو موضح في الشكل 2)، والتي تم تصفيتها بعد ذلك باستخدام معايير الاختيار والجودة. بشكل عام، أسفرت عملية البحث الأولية من خلال قواعد البيانات المختارة عن 1101 منشور. تم إعطاء سلاسل البحث المستخدمة للبحث عن المنشورات لكل من قواعد البيانات المختارة أدناه:
Google Scholar: [(“التعرف على السلوك” و”الماشية”)] و[(“التعلم العميق” أو “الذكاء الاصطناعي”) و(“الكشف عن السلوك” أو “التعرف على السلوك” أو “صحة الماشية”)]
ScienceDirect: (“التعلم العميق” أو “الذكاء الاصطناعي”) و(“الماشية” أو “القطيع”) و(“السلوك” أو “الإجراء”) و(“التعرف” أو “التحليل” أو “التصنيف”)
IEEE Xplore: (“التعلم العميق” أو “الذكاء الاصطناعي”) و(“الماشية” أو “القطيع” أو “الأبقار”) و(“السلوك” أو “الإجراء” أو “الصحة”) و(“التعرف” أو “التحليل” أو “الكشف” أو “التصنيف”)
Scopus: TITLE-ABS-KEY ((“التعلم العميق” أو “الذكاء الاصطناعي”) و(“الماشية” أو “القطيع” أو “الأبقار”) و(“السلوك” أو “الإجراء” أو “الصحة”) و(“التعرف” أو “التحليل” أو “الكشف”
أو “التصنيف”)) و(LIMIT-TO (DOCTYPE, “ar”))
Web of Science: “التعلم العميق” أو “الذكاء الاصطناعي”) و(“الماشية” أو “القطيع” أو “الأبقار”) و(“السلوك” أو “الإجراء” أو “الصحة”) و(“التعرف” أو “التحليل” أو “الكشف” أو “التصنيف”)) أو “التعلم العميق” أو “الذكاء الاصطناعي”) و(“الماشية” أو “القطيع” أو “الأبقار”) و(“السلوك” أو “الإجراء” أو “الصحة”) و(“التعرف” أو “التحليل” أو “الكشف” أو “التصنيف”)) أو AK=((“التعلم العميق” أو “الذكاء الاصطناعي”) و(“الماشية” أو “القطيع” أو “الأبقار”) و(“السلوك” أو “الإجراء” أو “الصحة”) و(“التعرف” أو “التحليل” أو “الكشف” أو “التصنيف”))
SpringerLink، Wiley: (“التعلم العميق” أو “الذكاء الاصطناعي”) و(“الماشية” أو “القطيع” أو “الأبقار”) و(“السلوك” أو “الإجراء” أو “الصحة”) و(“التعرف” أو “التحليل” أو “الكشف” أو “التصنيف”) (في أي مكان)

2.4. معايير الاختيار

أسفرت عملية البحث الأولية عن جمع العديد من المنشورات غير ذات الصلة. لذلك، تم تحديد معايير الإدراج والاستبعاد لاختيار المنشورات التي تحتوي على معلومات تتعلق بأسئلة البحث. تم الحكم على كل منشور وفقًا لمعايير الاختيار. تم اختيار المنشور إذا كانت جميع معايير الاستبعاد خاطئة وكانت معايير الإدراج صحيحة (Kitchenham وCharters، 2007). تم تطوير توافق ضد كل منشور باستخدام إحصائية كوهين كابا (Cohen، 1968). تم اختيار ما مجموعه 126 منشورًا من أصل 1101 منشورًا أوليًا. تم إعطاء معايير الاستبعاد المستخدمة في هذه الدراسة أدناه:
  1. المنشور غير مرتبط بالتعلم العميق للتعرف على سلوك الماشية.
  2. المنشور مكرر أو تم استرجاعه من قاعدة بيانات أخرى.
  3. المنشور غير مكتوب باللغة الإنجليزية، والنص الكامل للدراسة غير متاح.
  4. المنشور هو فصل كتاب، ملخصات مؤتمرات، مقالات بيانات، مراجعات صغيرة، اتصالات قصيرة، أطروحة، مراجعة، أو مقال استقصائي.
  5. المنشور هو نسخة مسبقة أو غير مراجعة من قبل الأقران.
  6. تم نشر المنشور قبل عام 2012.
تم إعطاء معايير الإدراج المستخدمة في هذه الدراسة أدناه:
  1. المنشور مرتبط بتطبيق منهجيات قائمة على التعلم العميق للتعرف على السلوك في الماشية.
  2. المنشور هو دراسة أولية.

2.5. جمع وتصنيف المنشورات

تم الوصول إلى 126 منشورًا تم اختيارها بعد معايير الاختيار لضمان اختيار دراسات أولية عالية الجودة. لهذا، تم اختيار معايير الجودة بناءً على أسئلة التقييم من الدراسة (Kitchenham
الشكل 2: عملية اختيار الدراسات الأولية.
وآخرون 2009). تم إعطاء كل منشور درجة 1 (نعم)، 0 (لا)، أو (0.5) (جزئي) ضد كل سؤال من أسئلة معايير الجودة. تم حساب الدرجة الإجمالية لكل منشور، وتم استبعاد المنشورات التي حصلت على أقل من ثلاث درجات. تم اختيار ما مجموعه 44 منشورًا كدراسات أولية نتيجة لتطبيق معايير الجودة. كانت أسئلة التقييم لمعايير الجودة المستخدمة في هذه الدراسة:
  1. هل تم توضيح الأهداف والغايات للدراسة بوضوح؟
  2. هل تم تعريف نطاق الدراسة، والمنهجية، وتصميم التجربة بوضوح؟
  3. هل تم توثيق عملية البحث والمنهجية بشكل مناسب؟
  4. هل تم الإجابة على جميع أسئلة الدراسة؟
  5. هل تم تقديم النتائج السلبية؟
  6. هل تتوافق الاستنتاجات مع أهداف الدراسة وغرضها؟
    الشكل 2. يظهر العملية العامة لاختيار الدراسات الأولية.

2.6. استخراج البيانات والتركيب

تم جمع الدراسات الأولية الـ 44 المختارة وبحثها بدقة لاستخراج البيانات ذات الصلة المتعلقة بكل سؤال بحث. يقدم الجدول 2 تفاصيل الدراسات الأولية المختارة. تم استخدام جدول بيانات لإدراج جميع الدراسات الأولية في صفوف مقابل كل سؤال بحث في أعمدة. تم استخراج البيانات وتلخيصها. ركزت البيانات المستخرجة على الإجابة على أسئلة البحث، بما في ذلك الأهداف، نوع مشاكل التعرف على السلوك، الاتجاه البحثي العالمي للتعرف على سلوك الماشية،
الإيثوجرام الذي يحدد كل سلوك، جمع البيانات ونوعها وكمية وجودة البيانات، نماذج التعلم العميق والشبكات، مقاييس تقييم الأداء، التفاصيل المتعلقة بسنة ومجلة المنشورات، والتحديات المرتبطة بتطبيق التعلم العميق للتعرف على سلوك الماشية. أخيرًا، تم تركيب البيانات المستخرجة للإجابة على كل سؤال بحث. تم تقديم نتائج هذه الدراسة SLR في القسم التالي.

3. النتائج

3.1. أهمية التعرف على السلوك في الماشية وأنواع المشاكل (RQ. 1)

في السنوات الأخيرة، حظيت مهمة التعرف على الإجراءات باهتمام كبير في رؤية الكمبيوتر. حتى الآن، كانت دراسة التعرف على الإجراءات محدودة بالبشر (Kong وFu، 2022). بينما تم إحراز تقدم ملحوظ، لا تزال مهمة التعرف على الإجراءات مشكلة معقدة. مع التقدم التكنولوجي وفتح الذكاء الاصطناعي الطريق تقريبًا إلى كل مجال من مجالات العلوم، تم اعتماد مفهوم التعرف على الإجراءات مؤخرًا لدراسة سلوك الحيوانات. تساعد دراسة سلوك الحيوانات على فهم كيف يتصرف حيوان معين في ظل ظروف متنوعة. اكتشف الباحثون رابطًا مهمًا بين التغيرات في سلوك الحيوانات وصحتها ورفاهيتها. أصبح تتبع سلوك الحيوانات عنصرًا أساسيًا في مراقبة الصحة في أنظمة الزراعة المكثفة. على الرغم من وجود اهتمام كبير في استخدام التعرف على الإجراءات لتمييز سلوك الحيوانات، من الضروري فهم الفرق بين الإجراء والسلوك.
الجدول 2
تفاصيل الدراسات الأولية المختارة.
لا. المصدر عنوان المقال المرجع
1 Google Scholar التعرف على سلوك التزاوج للخنازير بناءً على التعلم العميق Ii وآخرون 2019
2 التعرف على سلوك تزاوج الخنازير بناءً على ميزات الفيديو الزمانية المكانية Tallg er ai. 2021
3 التعرف التلقائي على سلوك إرضاع الخنازير باستخدام تقنيات التقسيم المعتمدة على التعلم العميق والميزات المكانية والزمانية يانغ وآخرون 2018
٤ استخدام EfficientNet-LSTM للتعرف على سلوكيات حركة الأبقار الفردية في بيئة معقدة “إليتال. 2020
٥ التعرف التلقائي على سلوك التغذية والبحث عن الطعام في الخنازير باستخدام التعلم العميق أيامير وآخرون 2020ب
٦ إطار عمل للتعرف التلقائي على سلوكيات الخنازير اليومية استنادًا إلى تحليل الحركة والصورة يانغ إير آي. 2020
٧ التعرف على سلوك تغذية الخنازير وتحديد وقت تغذية كل خنزير بواسطة طريقة التعلم العميق المعتمدة على الفيديو تشيلتاي. 20200
٨ تصنيف سلوك الأغنام المعتمد على التعلم العميق من بيانات مقياس التسارع مع عدم التوازن تومر وآخرون 2022
9 طريقة قائمة على رؤية الكمبيوتر للتعرف على الأفعال الزمانية المكانية لسلوك عض الذيل في الخنازير المرباة في مجموعات ليو وآخرون 2020
10 تحليل سلوك الأغنام التلقائي باستخدام ماسك R-CNN X́uetal. 2021
11 الكشف الآلي وتحليل سلوك رضاعة الخنازير الصغيرة باستخدام تقسيم الكائنات غير المرئية بدقة عالية غال إي إل. 2022أ
12 تطبيق التعلم العميق في التعرف على سلوكيات الأغنام وتحليل تأثير خصائص بيانات التدريب على فعالية التعرف تشينجيراي. 2022
١٣ التعرف التلقائي على أوضاع الخنازير المرضعة بواسطة شبكة Faster R-CNN المحسّنة ذات القناتين RGB-D ZIII إل وآخرون، 2020
14 تحديد وتحليل سلوك الطوارئ للدجاج البياض المُربى في الأقفاص استنادًا إلى YoloV5 غو وآخرون 2022
15 التعرف على وضعية الخنزير المحجوز بناءً على YOLOv4 المحسن لورا. 2022
16 كشف وضعية الخنازير الفردية استنادًا إلى الشبكات العصبية التلافيفية الخفيفة واهتمام القنوات الفعال لو وآخرون، 2021
17 ساينس دايركت التعرف على سلوك الماشية استنادًا إلى دمج الميزات تحت آلية انتباه مزدوج شانغ وآخرون 2022
١٨ كشف سلوك البحث عن الطعام لدى الخيول باستخدام تقنيات التعرف على الصوت والذكاء الاصطناعي نوميس وآخرون 2021
19 التعرف على سلوك الماشية القائم على التعلم العميق مع معلومات مكانية زمنية هرمية فوينتس إير آي. 2020)
20 كشف نشاط الخنازير الصغيرة الرضيعة استنادًا إلى تحليل منطقة الحركة باستخدام اختلافات الإطارات بالاقتران مع الشبكة العصبية التلافيفية دينغ وآخرون، 2022
21 IEEE إكسبلور الكشف التلقائي عن سلوك التزاوج في الماشية باستخدام التقسيم الدلالي والتصنيف نو وآخرون 2021
٢٢ حل قائم على التعلم العميق لاستخراج منطقة الماشية لكشف العرج نوف إيل آل.. 2022
23 تحديد الهوية والتعرف على الحركة في الماشية المعتمدة على الفيديو نغوينتر أي. 2021)
٢٤ زيادة البيانات لبيانات المستشعرات القابلة للحركة في الشبكات العصبية التلافيفية لتصنيف سلوك الماشية ليرا.. 2021
٢٥ نظام قائم على الذكاء الاصطناعي لمراقبة سلوك ونمو الخنازير تشيل وآخرون 2020ب
٢٦ نحو بناء نظام قائم على البيانات لرصد سلوكيات الأبقار السوداء ناوانو وآخرون 2021
27 مقارنة بين ميزات التشفير التلقائي والميزات الإحصائية لتصنيف سلوك الماشية رانمان إكاي. 2010
٢٨ كشف العرج في الأبقار باستخدام التعلم العميق الهرمي وتحويل الموجات المتزامنة جارسي وآخرون 2021
٢٩ عن فوائد الشبكات العصبية التلافيفية العميقة في التعرف على نشاط الحيوانات دوكاجيت آي. 2020
30 نموذج التعرف الفردي وطريقة لتقدير الرتبة الاجتماعية بين قطيع من الأبقار الحلوب باستخدام YOLOv5 أوكينيو وأونوادا، 2021
31 سكوبس شبكة الالتفاف البياني الزمكانية للكشف الآلي وتحليل السلوكيات الاجتماعية بين الخنازير الصغيرة قبل الفطام غان وآخرون 2022ب
٣٢ طريقة الكشف التلقائي عن سلوك تغذية الأبقار الحلوب استنادًا إلى نموذج YOLO المحسن والحوسبة الطرفية أونرال. 2022
٣٣ التعرف على سلوك الحركة الأساسي لفرس الحليب الفردية استنادًا إلى شبكة ركسنت 3D المحسّنة نيتات أي. 2022
٣٤ تحديد وتصنيف سلوك رعي الأغنام استنادًا إلى الإشارة الصوتية والتعلم العميق وانجراي.. 2021)
٣٥ استخدام شبكة CNN-LSTM لاكتشاف السلوكيات الأساسية لابقار الألبان الفردية في بيئة معقدة ويرال 2021
٣٦ تحليل الصور لتحديد الهوية الفردية ومراقبة سلوك التغذية للأبقار الحلوب استنادًا إلى الشبكات العصبية التلافيفية (CNN) أسيور وآي. 2020
37 أساليب التعلم العميق ورؤية الآلة لاكتشاف وضعية الخنازير الفردية ناسيراهماوي وآخرون، 2019
٣٨ ويب أوف ساينس تصنيف سلوك الأبقار المعتمد على C3D-ConvLSTM باستخدام بيانات الفيديو للزراعة الحيوانية الدقيقة أوياو وآخرون. 2022
٣٩ التعرف التلقائي على سلوك الماعز المربى في مجموعات باستخدام التعلم العميق جيانغ إير آي. 2020
40 تصنيف سلوك الماشية المعتمد على التعلم العميق باستخدام تمثيل البيانات الزمنية الترددية المشترك تيُوسيكيمينوريميت وآخرون 2021
41 التعرف الآلي على الوضعيات وسلوك الشرب للكشف عن الصحة المت compromised في الخنازير الأمير وآخرون. 2020أ
42 كشف نشاط النقر في الديوك الرومية المرباة في مجموعات باستخدام بيانات صوتية وتقنية التعلم العميق ناسير أحمدي وآخرون. 2020
43 رؤية الكمبيوتر المطبقة للكشف عن الخمول من خلال مراقبة حركة الحيوانات: تجربة على حمى الخنازير الأفريقية في الخنازير البرية فيمانوكز-كانيون وآخرون، 2020
٤٤ التعرف التلقائي على أوضاع الخنازير المرضعة من صور العمق بواسطة كاشف التعلم العميق إنينغ وآخرون، 2010
يُعرَّف الفعل على أنه عمل القيام بشيء ما. على العكس، يُعتبر السلوك مجموعة من الأفعال المتنوعة، أحيانًا تتكرر. بعبارة أخرى، بينما قد يكون الفعل瞬ياً، فإن السلوك هو مجموعة من الأفعال التي تحدث على مدى فترة مستمرة. نتيجة لإضافة بُعد زمني، يصبح التعرف على السلوكيات مشكلة أكثر تحديًا بكثير من مجرد التعرف على الأفعال.
على الرغم من أن الأساليب المستخدمة في التعرف على حركة الإنسان يمكن تخصيصها واستخدامها لتحليل سلوك الحيوانات، إلا أن هناك عدة اختلافات ومخاوف مهمة. على سبيل المثال، بيانات سلوك الحيوانات غالبًا ما تكون متعددة الأنماط. يمكن أن تحتوي على بيانات في شكل مقاطع فيديو، صور، وإشارات من أوقات مختلفة من اليوم تحت ظروف جوية مختلفة. وهذا يتطلب أساليب معالجة مسبقة واستخراج ميزات متخصصة مصممة خصيصًا لتحليل سلوك الحيوانات. علاوة على ذلك، يتمتع سلوك الحيوانات بسمات خاصة بنوع معين مما يتطلب إنشاء نماذج تعلم عميق متخصصة تعكس هذه الأنماط المميزة. القيود الأخلاقية والقيود المفروضة على جمع البيانات للحيوانات تحد من توفر بيانات مصنفة كافية للتدريب مما يؤثر على أداء ونمذجة نماذج التعلم العميق.
في 44 دراسة أساسية، أبلغ الباحثون عن 13 مشكلة في التعرف على السلوك. كانت هذه المشاكل مرتبطة بسلوكيات مثل التغذية، والوضعية، والحركة، والرضاعة، والتزاوج، والشرب، والنقر، وعض الذيل، والبحث عن الطعام، والسلوك الاجتماعي، والطوارئ، والعجز، والرضاعة. كل من هذه السلوكيات لها ارتباط كبير بصحة الحيوان ورفاهيته. وقد وُجد أن سلوك التغذية يقيم
صحة غير معاقة وتوقع الأمراض مثل الكيتوزية والتهاب الضرع. يساعد التقييم الدوري لسلوك التغذية في مراقبة صحة وإنتاج الماشية على مستوى الأفراد والمزارع. يمكن أن يساعد التعرف على الوضع غير الطبيعي في الحيوانات في الوقت المناسب في الحد من انتقال الأمراض، وتقليل استخدام المضادات الحيوية البيطرية، وزيادة الفوائد الاقتصادية للمزارع التجارية. تعتبر سلوكيات الحركة والنشاط مؤشرات حاسمة على الحالة الصحية البدنية للحيوانات وظروف الزراعة. يرتبط سلوك الشرب بإنتاج الحليب، والتحكم في درجة حرارة الجسم، واستهلاك العلف الكافي. يساعد سلوك التزاوج في اكتشاف فترات الشبق، ويمكن أن يساعد في تحسين أداء التكاثر للحيوانات. يرتبط سلوك الرضاعة ارتباطًا وثيقًا بالجوع ويؤثر على إنتاج الحليب ونمو الحيوانات. يمكن أن يشير أيضًا إلى الأمراض أو الإصابات المتعلقة بالضرع. يعتبر عض الذيل من أكثر السلوكيات ضررًا التي تؤثر على رفاهية الحيوانات وإنتاجها. لقد أدى التعرف المبكر على العرج إلى تحسين رفاهية الحيوانات، مما أدى إلى فوائد اقتصادية وصحية. تعتبر السلوكيات الاجتماعية مؤشرات حاسمة على نمو الحيوانات وصحتها. ترتبط سلوكيات الطوارئ مثل الدوس في البط بمعدل إصابات مرتفع. قد يعكس سلوك الرضاعة الصحة البدنية للحيوان. لوحظ أن الحيوانات ذات مستويات النشاط الأعلى لديها معدل وفيات أقل. علاوة على ذلك، قد يشير الوقت المخصص للرضاعة أو تدليك الضرع إلى الجوع أو تناول العلف ويمكن استخدامه لتوقع نمو الحيوانات.
كل من هذه المشكلات في التعرف على السلوك مقسمة إلى فئات لاحقة. تم الإبلاغ عن إجمالي 44 فئة مرتبطة بهذه المشكلات في الدراسات الأولية. الجدول
الجدول 3
نوع مشكلات التعرف على السلوك والفئات السلوكية المرتبطة.
نوع المشكلة فئات السلوك
التعرف على سلوك التغذية الأكل، الرعي، المضغ، التجشؤ، التجشؤ واقفًا، التجشؤ مستلقيًا، العض
التعرف على الوضع الراحة، الاستلقاء، الاستلقاء، الاستلقاء على البطن، الاستلقاء على الجانب، الاستلقاء الجانبي، الاستلقاء على الصدر، الوقوف، النهوض، الجلوس، الاستلقاء على الصدر، الاستلقاء البطني، الاستلقاء الجانبي، النوم
التعرف على الحركة المشي، التحرك، تحريك الذيل، تحريك الرأس، غير نشط، خمول
التعرف على سلوك الرضاعة تفاعل الرضاعة
التعرف على سلوك التزاوج تفاعل التزاوج
التعرف على سلوك الشرب تفاعل الشرب
التعرف على نشاط النقر نقر أو عدم نقر
التعرف على سلوك عض الذيل عض الذيل (العض)، عض الذيل (الضحية)
التعرف على سلوك البحث عن الطعام زيارات غير غذائية / غير تغذوية
التعرف على السلوك الاجتماعي البحث، اللعق الاجتماعي، التمشيط، الاستكشاف، الشم الاجتماعي، القتال، اللعب
التعرف على سلوك الطوارئ تمديد الرقبة، الدوس، نشر الأجنحة
التعرف على العرج العرج
التعرف على سلوك الرضاعة الرضاعة أو عدم الرضاعة
3 يقدم نوع مشكلات التعرف على السلوك والفئات السلوكية المرتبطة التي تم الإبلاغ عنها في الدراسات الأولية.
الخطوة الأولى والأكثر أهمية لجمع البيانات والتمييز بشكل صحيح بين الفئات المختلفة هي تعريف كل فئة. من الضروري تحديد حدود فئة سلوكية معينة. ينظم علماء السلوك هذه الفئات السلوكية فيما يعرف بالإيثوجرام. في هذه الدراسة SLR، يتم تقديم إيثوجرام يلخص تعريف كل فئة سلوكية تم الإبلاغ عنها في الدراسات الأولية في الجدول 4. نظرًا لعدم وجود معايير واضحة لتحديد حدود فئة معينة، فإن العديد من التعريفات مرتبطة بكل فئة سلوكية. كانت المعايير التي استخدمها الباحثون تعتمد على ملاحظاتهم، وتجاربهم العملية، والبيئة الزراعية المحيطة. قد يفشل نموذج التعلم العميق المطور بتعريف واحد لنفس الفئة في الأداء في بيئة بتعريف مختلف. من الضروري، وحتى الآن، سؤال بحث لم يتم تناوله، إنشاء إيثوجرام محدد يوضح الفئات السلوكية خصيصًا لتطوير نماذج التعلم العميق للتعرف على سلوك الماشية، مما سيسهل أيضًا مقارنة أداء هذه النماذج على أسس متساوية.

3.1.1. توزيع الدراسات الأولية والاتجاه العالمي للتعرف على سلوك الماشية

يوضح الشكل 3 توزيع الدراسات الأولية المختارة حسب السنة ومجلة النشر. ركزت هذه الدراسة SLR على المقالات المنشورة بين عامي 2012 و2022. من 2012 إلى 2015، لم يركز أي مقال بشكل صريح على تطبيق التعلم العميق في التعرف على سلوك الماشية. منذ عام 2016، كان هناك اتجاه متزايد. كان هذا الزيادة بسبب أن هذه كانت السنوات التي بدأت فيها الأساليب المعتمدة على التعلم العميق تحقق نتائج بارزة في مشكلات مثل تصنيفات الصور والفيديو، واكتشاف الكائنات، وتتبع الأهداف، والانحدار. كانت الأعمال قبل عام 2016 تركز في الغالب على منهجيات اختيار واستخراج الميزات اليدوية التي تفتقر إلى القابلية للتوسع.
تم نشر أكبر عدد من المقالات في عام 2022. تم نشر 12 مجلة مهمة في نشر المقالات ذات الصلة، مع 04 ناشرين. كانت المجلة التي تحتوي على أكبر عدد من المقالات المنشورة هي مجلة الكمبيوتر والإلكترونيات في الزراعة، تليها وقائع مؤتمر IEEE وهندسة النظم البيولوجية.
يوضح مخطط سانكي الذي يلخص الاتجاه العالمي للبحث في الشكل 4. يتم تنظيم المخطط إلى خمسة أقسام، بما في ذلك معلومات عن الدول، وأنواع الماشية، ومستويات السلوك، ونوع مشكلة التعرف على السلوك المبلغ عنها في الدراسات الأولية. وُجد أن الصين هي الرائدة في البحث في تطبيق التعلم العميق للتعرف على سلوك الماشية، مع ، تليها أستراليا ( )، اليابان ( )، المملكة المتحدة (المملكة المتحدة) (6.25%)، الولايات المتحدة الأمريكية (USA) (5.11%)، وكوريا الجنوبية (4.55%)، مما يجعلها من بين أفضل خمس دول من إجمالي 16 دولة. كان البحث يركز بشكل أساسي على سبعة أنواع مختلفة من الماشية، حيث حصلت الأبقار على أكبر قدر من الاهتمام ( )، تليها الخنازير ( )، الأغنام ( )، الماعز ( )، الخيول ( )، الديوك الرومية ( )، والبط ( ). ركزت بعض الدول على نوع معين من الماشية، مثل الصين التي ركزت على جميع أنواع الماشية المبلغ عنها باستثناء الديوك الرومية والخيول. ركزت أستراليا بشكل أساسي على الأبقار والأغنام. اليابان وكوريا الجنوبية فقط على الأبقار. المملكة المتحدة على الخنازير والديوك الرومية، والولايات المتحدة على الخنازير والخيول. لم يتم العثور على علاقة محددة بين إنتاج الحيوانات وزيادة كمية البحث. ومع ذلك، نظرًا لأن الأبقار والخنازير والأغنام والماعز تُستهلك في الغالب كمصادر غذائية وتكون في الغالب في مزارع الماشية، كان البحث عن هذه الحيوانات أكثر بروزًا من غيرها.
علاوة على ذلك، هناك مستويات مختلفة يمكن تصنيف سلوكيات الماشية عليها. قامت هذه الدراسة SLR بتصنيف ذلك إلى مستويات سلوكية أولية وثانوية. يتم تقسيم المستوى السلوكي الأولي إلى فئتين: فردية وجماعية. يشير المستوى الفردي إلى السلوكيات المتعلقة فقط بحيوان واحد، على سبيل المثال، الحركة، الوضع، النقر، الطوارئ، والعرج. ومع ذلك، يشير المستوى الجماعي إلى السلوكيات التي تشمل عدة حيوانات، على سبيل المثال، التزاوج، الاجتماعي، الرضاعة، الرعاية، وعض الذيل. يمكن أن تكون بعض السلوكيات على المستوى الفردي أو الجماعي، على سبيل المثال، التغذية، الشرب، والبحث عن الطعام.
الجدول 4
إيثوجرام يوضح الفئات السلوكية الموجودة في الدراسات الأولية.
فئات السلوك الوصف المرجع
التغذية / الأكل الوقوف مع الرأس في صينية العلف أو خفض الرأس (فوينتس وآخرون
أو إبقاء الرأس في منطقة الطعام وأداء حركة الأكل أو الرأس داخل حوض الطعام أو إبقاء الرأس في منطقة الطعام أو العض والمضغ على طعامه، والحفر بأنفه في المغذي أو الرأس مائل لأسفل والطعام متاح في المغذي أو عندما يتداخل صندوق الحدود لرأس أي خنزير مع منطقة السرير 2020)، (يانغ وآخرون 2020)، (الأمير وآخرون 2020ب)، (تشن وآخرون 2020أ)، (أشور وآخرون، 2020)، (تشن وآخرون 2020ب)، (كيو وآخرون،
2022)، (يو وآخرون، 2022)
المضغ والتجشؤ المضغ، ورفع الرأس (رحمن وآخرون، 2016)
2020)، (وو وآخرون، 2021)
التجشؤ واقفًا التجشؤ، والوقوف (رحمن وآخرون، 2016)
التجشؤ مستلقيًا، التجشؤ، والاستلقاء أو الجلوس (رحمن وآخرون، 2016)
الراحة الجلوس على الأرض أو الاستراحة، والاستلقاء أو الاستراحة، والوقوف مع رفع الرأس (فوينتس وآخرون
2020)، (رحمن وآخرون، 2016)
الكذب البطن يلتصق بالأرض دون حركة شاقة أخرى أو الوضعية بعد الركوع (وو وآخرون، 2021)،(ما وآخرون، 2022)
مستلقٍ التحرك من الوقوف إلى الاستلقاء (فوينتس وآخرون، 2020)
الكذب على البطن مستلقٍ مع الأطراف مطوية تحت الجسم (ناسراهامدي وآخرون، 2019)
مستلقٍ على الجانب استلقِ في وضعية ممددة بالكامل مع مد الأطراف
(ناسراه مادي وآخرون، 2019)
الاستلقاء الجانبي جانب جذع الخنزير ملامس للأرض (الأمير وآخرون، 2020أ)
الاستلقاء على الصدر صدر الخنزير / عظمة الصدر ملامس للأرض (الأمير وآخرون، 2020أ)
الوقوف وضعية الجسم المستقيمة على أرجل ممدودة مع وجود الحوافر فقط في (Zheng وآخرون،
2018)، (لو وآخرون،
الاتصال مع الأرض أو الساقين مستقيمتين وتدعمان 2020)، (فوينتس وآخرون،
حالة الوقوف أو الخنزير لديه أقدام (وربما أنف) في اتصال 2020)، (عشور وآخرون.
مع القلم الأرضي أو الأرجل تبقى عمودية بدون أخرى 2020)، (العمر وآخرون.
حركة شاقة أو وضع الجسم والأرجل الأربعة 2020أ)، (وو وآخرون،
لم يتغير OR الوضع قبل الركوع على الأرض 2021)، (كياو وآخرون
الوقوف التحرك من الاستلقاء إلى الوقوف (Fuentes وآخرون، 2020)
الجلوس (Zheng وآخرون، 2018)، (Zhu وآخرون، 2020)، (Alameer وآخرون، 2020أ)، (Lu وآخرون، 2022)
مرفوعة جزئيًا على الأرجل الأمامية الممدودة مع نهاية الجسم الذيلية تلامس الأرض أو فقط أقدام الأرجل الأمامية والجزء الخلفي/الأسفل من جسم الخنزير تلامس الأرض
الاستلقاء على الصدر مستلقٍ على البطن/الصدر مع طي الأرجل الأمامية والخلفية تحت الجسم؛ الضرع مخفي تمامًا. (Zheng وآخرون، 2018)، (Zhu وآخرون، 2020)
الاستلقاء البطني مستلقٍ على البطن/الصدر مع الأرجل الأمامية مطوية تحت (Zheng وآخرون.
الجسم والأرجل الخلفية الظاهرة (الجانب الأيمن، الجانب الأيسر)؛ الضرع هو 2018)، (تشو وآخرون،
مغطى جزئيًا 2020)، (لو وآخرون، 2022)
الاستلقاء الجانبي مستلقٍ على أي جانب مع ظهور جميع الأرجل الأربعة (الجانب الأيمن، الجانب الأيسر) (Zheng وآخرون، 2018)
الجانب)؛ الضرع مرئي تمامًا أو الجانب مستلقٍ على (تشو وآخرون، 2020)، (لو
الأرض، كتف واحد على الأرض، مع الأطراف ممدودة
نائم الجلوس على الأرض والرأس على الأرض (فوينتس وآخرون، 2020)
المشي التحرك في وضع الوقوف أو رفع الرأس والمشي أو (فوينتس وآخرون
تتحرك الأرجل بشكل متكرر وتختلف وضعية البقرة بشكل كبير أو 2020)، (وو وآخرون.
حركة لأكثر من 3 ثواني 2021)، (كياو وآخرون.
(يانغ وآخرون، 2020)
تحريك التحرك دون القيام بأي شيء آخر
ذيل متحرك حركات الذيل (Fuentes وآخرون، 2020)
رأس متحرك حركات الرأس (فوينتس وآخرون، 2020)
غير نشط الجلوس، الاستلقاء، الركوع، أو الوقوف دون القيام بأي نشاط آخر (يانغ وآخرون، 2020)
كسل (فيرنانديز-كاريون وآخرون، 2020)
قيم منخفضة في الحركة اليومية تتزامن مع قمم درجات حرارة مرتفعة
تفاعل التمريض على الأقل نصف الخنازير الصغيرة تتلاعب بنشاط بالحلمة عندما تكون الخنزيرة مستلقية جانبياً، ومدة النشاط (يانغ وآخرون، 2018)، (يانغ وآخرون، 2020)
تفاعل متزايد يتجاوز 60 ثانية (فوينتس وآخرون
البقرة تنحني على بقرة أخرى عادةً عندما تكون إحدى البقرتين في حالة حرارة. 2021)، (كاوانو وآخرون، 2021)، (لو وآخرون، 2021)
الجدول 4: (تابع)
فصول السلوك وصف مرجع
تفاعل الشرب لمس حلمة الشرب بالخطم أو الخطم في اتصال مع حلمة الشرب، أو الوقوف بجانب خزان الماء وفمه في الخزان (يانغ وآخرون، 2020)، (العمر وآخرون.
2020أ)، (وو وآخرون.
نقر أو غير نقر عندما ضربت الطيور الكرة المعدنية (الجسم المنقاري) بمنقارها (ناصرهامدي وآخرون 2020)
عضة الذيل عض ذيل زميل القلم، مع رد فعل مفاجئ من زميل القلم (ترنر وآخرون، 2022)
عضة ذيل بينميت يعض ذيل الموضوع ويثير رد فعل (ترنر وآخرون، 2022)
غير مغذي / غير- عندما يدخل خنزير منطقة التغذية على قدمين دون أن (الأمير وآخرون
زيارات التغذية 2020ب)، (يو وآخرون.
تناول أي طعام أو عندما تكون البقرة في منطقة التغذية، ترفع رأسها بعيدًا عن منطقة التغذية للمضغ، والإجراء التالي إما أن تستمر في التغذية أو تترك منطقة التغذية
البحث رأس منخفض ويمشي (رحمن وآخرون 2016)
اللعق الاجتماعي لعق جسم الآخر باللسان (فوينتس وآخرون، 2020)
تجميل (فوينتس وآخرون
اللعق بجسمه باللسان أو الرأس مائل نحو البطن لتجميل الجسم باللسان
2022)
استكشاف الرأس قريب من الأرض أو على اتصال بها (أوياو وآخرون، 2022)
التجسس الاجتماعي الخنزير الصغير الذي يلمس أو يشم أي جزء من رأس أو أنف خنزير صغير آخر
قتال قتال شخصين أو أكثر أو قتال عنيف، دفع بالرأس، أو عض الأشقاء بشكل عنيف (فوينتس وآخرون
2020)، (غان وآخرون.
اللعب الدفع أو الدفع الخفيف، اللعب، والقتال (غان وآخرون 2022ب)
تمديد الرقبة البطة التي تضع البيض تمد عنقها خارج القفص من خلف القفص (Gu وآخرون، 2022)
داس على الأقل، قدم واحدة من بطة تدوس على جسم البطة الأخرى (Gu وآخرون، 2022)
نشر الأجنحة أجنحة البط منتشرة من زاوية معينة لتكون مفتوحة بالكامل (Gu وآخرون، 2022)
عرج تقدير تردد المشي، مدة المشي والفترات غير المتعلقة بالمشي، والعرج أو سرعة المشي، وانحناء ظهورهم وخفض رؤوسهم أثناء المشي (جارشي وآخرون، 2021)،(نوي وآخرون، 2022)
الرضاعة إما الفم على الحلمة أو اتصال الأنف بالضرع مع حركات رأس عمودية وإيقاعية، تتكون من تدليك مسبق للضرع، وتناول/تدفق الحليب، وتدليك بعد ذلك أو إرضاع البقرة للعجل. (غان وآخرون، 2022أ)، (فوينتس وآخرون، 2020)
الشكل 3: توزيع الدراسات الأولية المختارة حسب السنة ومجلة النشر.
الشكل 4: الاتجاه العالمي للبحث في التعرف على سلوك الثروة الحيوانية.
على العكس، يتم تقسيم مستوى السلوك الثانوي إلى فئتين: تفاعلي وغير تفاعلي. يشير المستوى التفاعلي إلى السلوك الذي يتفاعل فيه حيوان واحد أو عدة حيوانات مع بعضها البعض أو مع كائن من البيئة المحيطة، على سبيل المثال، النقر، الركوب، السلوك الاجتماعي، الرضاعة، التمريض، عض الذيل، التغذية، الشرب، والبحث عن الطعام. ومع ذلك، يشير المستوى غير التفاعلي إلى السلوكيات التي لا تتضمن تفاعل الحيوانات مع بعضها البعض، على سبيل المثال، الحركة، الوضعية، الطوارئ، والعرج. ركز الباحثون أكثر على الفرد. من مجموعة ( السلوكيات على المستوى الأساسي وأكثر تفاعلاً (57.95%) من غير التفاعلي ( سلوكيات المستوى الثانوي. ركزت الغالبية العظمى من الدراسات على السلوكيات الفردية أكثر من السلوكيات الجماعية. وهذا يتماشى مع الحقيقة القائلة بأن الكشف عن الأجسام على مستوى الأفراد في رؤية الكمبيوتر أسهل من الكشف عن الأجسام على مستوى المجموعات بسبب التحديات المتعلقة بالتحديد المكاني، والاحتجاب، والالتصاق. وُجد أن السلوكيات الجماعية معقدة وصعبة التعرف عليها. وبالمثل، تم دراسة السلوكيات الفردية غير التفاعلية أكثر من السلوكيات الجماعية التفاعلية.
كان التعرف على سلوك التغذية هو الأكثر شيوعًا من بين 13 نوعًا من مشاكل التعرف على السلوك التي تم الإبلاغ عنها في الدراسات الأولية، مع ، تليها الوضعية والحركة (18.18%)، الشرب (10.8%)، الركوب (7.39%)، الاجتماعي (5.11%)، البحث عن الطعام (4.55%)، الرضاعة (3.41%)، التمريض ( العرج وعض الذيل ) ، النقر ( ) ، والطوارئ ( ).
كان سلوك التغذية هو السلوك الأكثر تركيزًا بين الآخرين حيث وُجد أن التغذية كانت مرتبطة بشكل مباشر
مرتبط بتناول الغذاء والرفاهية العامة للحيوانات. علاوة على ذلك، نظرًا لأن التغذية سلوك فردي، فإن الغالبية العظمى من الدراسات ركزت على التعرف عليها بدلاً من السلوكيات الجماعية المعقدة مثل التزاوج، والتفاعل الاجتماعي، والرضاعة.

3.2. جمع البيانات ونوع وكمية وجودة البيانات (RQ. 2)

تعتبر البيانات واحدة من العناصر الأكثر أهمية التي يعتمد عليها أداء نموذج التعلم العميق بشكل كبير. تُعتبر نماذج التعلم العميق جائعة للبيانات. على الرغم من أن مجتمع التعلم العميق يتفق على أنه كلما زادت البيانات، زادت دقة النموذج، إلا أنه لا يزال يتم تحديد مقدار البيانات المقبولة وما يجب أن يكون الحد. هذه أسئلة بحثية مفتوحة. في معظم الأوقات، يستخدم الباحثون خبرتهم وتجربتهم لتحديد معايير مجموعة بيانات جيدة. يكرس علماء البيانات ومطورو الذكاء الاصطناعي حوالي من وقتهم في تحليل البيانات ومعالجتها مسبقًا وهيكلتها. يتم قضاء الباقي في اختيار النموذج، والتدريب، والاختبار، وإجراءات التنفيذ. تم العثور على نمط مشابه في 44 دراسة أساسية.
كانت هناك أسباب محددة لاختيار نوع بيانات معين. كان اختيار البيانات إما إشارات أو صور يعتمد فقط على النهج الذي اعتمده الباحثون. كانت الأساليب التي لا تعتمد على الرؤية أو المعتمدة على الاتصال تستخدم بيانات الإشارات كمصدر للبيانات من أجهزة الاستشعار الفيزيائية. ومع ذلك، كانت الأساليب المعتمدة على الرؤية أو غير المعتمدة على الاتصال تستخدم الصور أو مقاطع الفيديو كمصدر للبيانات من الكاميرا. غالبًا ما كانت الإشارات تُستخدم للسلوكيات مثل الحركة، والوضعية، والعرج حيث يتم تسجيل
كانت بيانات الحركة معلمة حاسمة. ومع ذلك، لم يتم العثور على تفسيرات ملموسة تتعلق بجودة وكمية البيانات. تم استخدام عدد مختلف من العينات، ونطاقات التردد، وأحجام الصور، ومعدل الإطارات في الثانية من قبل دراسات مختلفة حتى للتعرف على نفس نوع السلوك. بغض النظر عن ذلك، في هذه الدراسة المنهجية، تم تلخيص أدوات جمع البيانات، ونوع البيانات، وكمية البيانات، وجودة البيانات، إلى جانب نوع مشاكل التعرف على السلوك التي تم حلها، والنماذج والشبكات العميقة المبلغ عنها، وأدائها، وعدد الفئات المستخدمة، وتم تقديمها في الجدولين 5 و 6.
بشكل عام، يمكن تصنيف الأساليب المستخدمة في الدراسات الأولية إلى فئتين: بدون رؤية أو قائمة على الاتصال، ومرتكزة على الرؤية أو غير قائمة على الاتصال. في النهج القائم على الاتصال، تم الإبلاغ عن استخدام أجهزة استشعار مثبتة على الجسم مثل وحدات القياس بالقصور الذاتي (IMUs). كانت هذه الأجهزة تتصل مباشرة بجسم الحيوانات وقد أُبلغ عن تأثيرها على صحتها ورفاهيتها مع مرور الوقت. بالإضافة إلى ذلك، كانت هذه الأجهزة عرضة لقراءات خاطئة، مثل الضوضاء، بسبب البيئة المحيطة. بالنسبة لهذا النهج، تم تسجيل البيانات بشكل عام كإشارات مقياس تسارع، مع أدنى عدد من العينات 21,924 وأعلى عدد عند ، بمعدل أخذ عينات يتراوح من 10 هرتز إلى 44 كيلوهرتز.
على العكس، تم تطوير طرق غير تدخّلية في النهج غير التلامسي دون الاتصال بجسم الحيوان باستخدام أنظمة الكاميرا. تم تسجيل البيانات في صور أو مقاطع فيديو، وكانت كمية وجودة البيانات متفاوتة عبر دراسات مختلفة. كان أقل عدد من الصور المسجلة هو 108، وأعلى عدد هو 630,000. وتم الإبلاغ عن جودة الصورة بأنها بكسلات كحد أدنى و بكسل كحد أقصى، مع معدل إطارات يتراوح من 01 إطار في الثانية إلى 30 إطار في الثانية.

3.3. نماذج الشبكات العميقة للتعرف على سلوك الماشية (RQ. 3)

في الدراسات الأولية، تم الإبلاغ عن إجمالي 23 نموذجًا مختلفًا من نماذج التعلم العميق لمعالجة 13 نوعًا مختلفًا من مشاكل التعرف على السلوك. تشمل هذه النماذج متغيرات مختلفة من YOLO وCNN وR-CNN وDNN وLSTM وبعض تركيبات النماذج مثل CNN-LSTM وC3D-ConvLSTM. توضح الشكل 5 نماذج التعلم العميق المبلغ عنها في الدراسات الأولية وعدد المرات التي تم استخدامها لكل مشكلة من مشاكل التعرف على السلوك. من بين 23 نموذجًا من نماذج التعلم العميق ومتغيراتها، كانت الأكثر شيوعًا هي CNN وFaster R-CNN وYOLOv5 وYOLOv4 وCNN-LSTM. على الرغم من أن اختيار نموذج التعلم العميق لنوع محدد من المشاكل يمثل تحديًا دون قواعد محددة، فقد وجدت الأبحاث الأولية رابطًا بين اختيار النموذج ونوع مشكلة التعرف على السلوك. تم استخدام YOLOv5 بشكل أساسي للتعرف على سلوك الشرب نظرًا لأن سلوك الشرب يُعتبر عادةً مشكلة اكتشاف كائنات على مستوى فردي وتفاعلي. لقد قدم أداءً متفوقًا لمجموعة واسعة من التطبيقات بفضل كفاءته الرائعة وقوته في اكتشاف الكائنات عبر مجالات مختلفة.
وبالمثل، تم استخدام CNN للتغذية، والبحث عن الطعام، والتعرف على الحركة لأنها فعالة للغاية في تحليل الفيديوهات أو الصور من خلال تحديد أنماط التغذية، والبحث عن الطعام، أو الحركة الفريدة بناءً على المعلومات المكانية داخل البيانات. ومع ذلك، تم استخدام LSTM للتعرف على العرج لأن البيانات المتاحة كانت في الأساس في شكل سلسلة زمنية وتم الحصول عليها باستخدام مستشعرات IMU الفيزيائية. تم استخدام Faster R-CNN بشكل رئيسي للتعرف على سلوك التزاوج والوضعية لأنها تستخدم آلية انتباه تعتمد على RPN لاستخراج مناطق الاهتمام من الصور، مما يسمح لها بتحديد السلوكيات على مستوى الأفراد والمجموعات، سواء كانت تفاعلية أو غير تفاعلية. على العكس من ذلك، فإن Faster R-CNN تتطلب موارد حسابية كبيرة عندما يتعلق الأمر بالتطبيق في الوقت الحقيقي.
كما ذُكر سابقًا، يتم تعريف السلوك عبر فترة زمنية مستمرة. نتيجة لذلك، يصبح المجال الزمني جانبًا أساسيًا في التعرف على السلوكيات. على الرغم من أن أحدث التقنيات حاليًا محصورة في التعرف الفوري إطارًا بإطار، إلا أن بعض النماذج تأخذ في الاعتبار عامل الزمن. C3D-ConvLSTM هو أحد هذه النماذج المستخدمة في الدراسات للتعرف على سلوكيات التغذية، والحركة، والسلوك الاجتماعي. C3D-ConvLSTM هو LSTM مع طبقات تلافيفية ثلاثية الأبعاد إضافية. غالبًا ما يتم استخدام نموذج التعلم العميق في بعدين؛ ومع ذلك، في ثلاثة أبعاد، يتم إدخال بعد إضافي لزيادة دقة النموذج من خلال توسيع التلافيف على الأبعاد الزمنية، مما يسمح له بتعلم كل من الميزات البصرية التمييزية والارتباطات الزمنية. مثال آخر هو TSN، الذي يستخدم أخذ عينات قائمة على القطاعات لضمان توزيع مقاطع الفيديو المأخوذة عشوائيًا بالتساوي على البعد الزمني، مما يوفر مؤشرًا آخر حاسمًا لفهم الأفعال. تم الإبلاغ عن TSN في دراسة واحدة للتعرف على سلوك الشرب فقط.
تظهر الشكل 6 الشبكات العميقة المبلغ عنها في الدراسات الأولية وعدد المرات التي تم استخدامها لكل مشكلة من مشاكل التعرف على السلوك. تم الإبلاغ عن إجمالي 24 شبكة عميقة متنوعة في الدراسات الأولية. كانت معظم الشبكات العميقة مصممة خصيصًا، حيث قام الباحثون بتصميم هيكل الشبكة الخاصة بهم بدلاً من استخدام الهياكل المحددة مسبقًا. علاوة على ذلك، كانت أفضل خمس هياكل شبكة محددة مسبقًا هي VGG16 وCSPDarknet53 وGoogLeNet وResNet101 وResNet50. تظهر الشكل 7 تركيبات نماذج الشبكات العميقة والشبكات المبلغ عنها في الدراسات الأولية. تم استخدام YOLOv5 بشكل أساسي مع CSPDarknet53 كشبكة أساسية، تليها CNN مع الشبكات المصممة خصيصًا، وFaster R-CNN مع ResNet50.

3.4. مقاييس الأداء والمنهجيات (RQ. 4)

استخدم الباحثون عشرة مقاييس أداء مختلفة لتقييم فعالية نماذج التعلم العميق. يوضح الشكل 8 مقاييس الأداء وعدد المرات التي تم الإبلاغ عنها في الدراسات الأساسية. كانت الدقة والموثوقية أكثر مقاييس الأداء استخدامًا، تليها درجة F1، ومتوسط الدقة (mAP)، والاسترجاع، والحساسية، والخصوصية، ومتوسط الدقة (AP)، والتقاطع على الاتحاد.
الجدول 5
ملخص لجمع البيانات، النوع، الكمية، والجودة.
مرجع نوع المشكلة جمع البيانات نوع البيانات كمية البيانات جودة البيانات
(رحمن وآخرون 2016) التغذية، الوضعية طوق مثبت على العنق مزود بأجهزة استشعار، هوني ويل HMC6343 إشارات مقياس التسارع 8,62,500 عينة معدل أخذ العينات 10 هرتز
(Zheng وآخرون وضعية مستشعر مايكروسوفت كينكت v2 صور RGB وعمق 356,000 صورة بكسل
(يانغ وآخرون. التمريض كاميرا هيكفيجن (DS-2CD1321D-I) فيديوهات، صور RGB 421,972 صورة بكسل، 10 إطارات في الثانية
(ناصرهامدي وآخرون، 2019) وضعية كاميرتان علوية (VIVOTEK IB836BAHF3، Hikvision DS-2CD2142FWD-I) صور RGB 4,900 صورة بكسل
(لي وآخرون، 2019) تركيب جي-282C، نورنبيرغ فيديوهات، صور RGB 1,500 صورة بكسل، 2 إطار في الثانية
(تشو وآخرون، 2020) وضعية
ألمانيا
مستشعر مايكروسوفت كينكت v2
صور RGB وعمق
فيديوهات، RGB im-
18,133 زوجًا من الصور بكسل، 5 إطارات في الثانية
(يانغ وآخرون 2020) التغذية، الشرب، الرضاعة، الحركة كاميرا هيكفيجن (DS-2CD1321D-I) عصور 630,000 صورة 960 × 540 بكسل، 5 إطارات في الثانية
(ناصرهامدي وآخرون، 2020) نقر ميكروفون (Monacor VB-120MIC) كاميرا (TosiNet Realtime 2K 4 MPPoE-IP-camera) الإشارات الصوتية، الفيديوهات 13,100 مقطع صوتي
(ترنر وآخرون) عض الذيل 6 كاميرات IP (GV-BX 1300 KV ، Geovision Inc.، تايبيه، تايوان) فيديوهات، صور RGB فيديو مدته 8 ساعات (247 حدثًا لعض الذيل تستمر) بكسل، 30 إطار في الثانية
(الأمير وآخرون التغذية، البحث عن الطعام صور RGB وصور تدرج الرمادي 42,778 صورة 640 × 360 بكسل، 25 إطار في الثانية
2020ب) كاميرتان (مايكروسوفت كينكت لجهاز إكس بوكس ون، مايكروسوفت، ريدموند، واشنطن، الولايات المتحدة الأمريكية)
(تشن وآخرون 2020أ) إطعام كاميرا أمان قبة خارجية بالأشعة تحت الحمراء (CTPTLVA29AV، كانتيك) فيديوهات مقاطع لكل فصل بكسل، 30 إطار في الثانية
(أشور وآخرون إطعام نموذج Raspberry Pi 3 فيديوهات، صور RGB
2020) ب متصل بكاميرا ويب USB (كاميرا ويب يوداني USB (يود 19 ساعة، 25,352 صورة (4 مجموعات بيانات)
(الأمير وآخرون الوضعية، الشرب كاميرا (مايكروسوفت) فيديوهات، RGB im- 11,3379 صورة
2020أ) كينكت لجهاز إكس بوكس ون، مايكروسوفت، ريدموند، واشنطن، الولايات المتحدة الأمريكية عصور
(فوينتس وآخرون 2020) الوضعية، التغذية، الاجتماعية، التزاوج كاميرات فيديوهات، RGB وتدفق بصري im- 350 فيديو، كل واحد 12 دقيقة بكسل، 1 إطار في الثانية
(ين وآخرون، 2020) حركة الكاميرات (SONY HDRCX290 ونظام كاميرات المراقبة الشبكية YW7100HR09-SC62-TA12)
عصور
فيديوهات، صور RGB
1,009 فيديو، 90 ثانية لكل منها، 2,270,250 صورة 512 × 512 بكسل، 25 إطار في الثانية
(بوجاج وآخرون 2020) التغذية، الحركة مجموعات البيانات العامة إشارات مقياس التسارع مجموعتان بيانات 87621 عينة، 6 مواضيع (حصان) 86557 عينة، 5 مواضيع (ماعز) معدل أخذ العينات 12 هرتز معدل أخذ العينات 100 هرتز
كارريون وآخرون 2020 حركة كاميرات القبة الثابتة فيديوهات، صور RGB 1,000 صورة 640 × 360 بكسل، 6 إطارات في الثانية
عرج جهاز قابل للارتداء يعتمد على المتحكم الدقيق Intel QuarkSE C1000 ويجمع بين مستشعر Bosch BMI160 (Boschsensortec.com، 2016) إشارات مقياس التسارع 2,04,999 عينة معدل أخذ العينات 16 هرتز
الجدول 5: (تابع)
مرجع نوع المشكلة جمع البيانات نوع البيانات كمية البيانات جودة البيانات
(وو وآخرون، 2021) الوضعية، الشرب، الحركة
كاميرا ويب قبة Hikvision DS-2DM1714 (Hikvision Digital
شركة التكنولوجيا المحدودة، هانغتشو، الصين
فيديوهات، صور RGB 4566 فيديو، 63 كل 224 × 224 بكسل، 25 إطار في الثانية
(تشن وآخرون 2020ب) التغذية، الشرب كاميرا عين السمكة بزاوية واسعة فيديوهات، صور RGB وصور تدرج الرمادي يوم واحد بكسل
(نونس وآخرون 2021) التجميع كاميرا ميكرو LK-SC100B (LKSUMPT، شنتشن، الصين) صوت، فيديو الأحداث، من 0.3 إلى 0.5 ثانية لكل منها بتات
(نو وآخرون، 2021) تركيب كاميرات فيديوهات، صور RGB 15 فيديو، 2000 صورة بكسل
(يانغ وآخرون. تركيب كاميرا شبكة الأشعة تحت الحمراء هايكينغ (DS-2CD3345-I، هيكفيجن، هانغتشو، الصين) فيديوهات، صور RGB 1,000 صورة بكسل، 25 إطار في الثانية
(كاوانو وآخرون 2021) تركيب كاميرات فيديوهات، صور RGB 12 ساعة، 5,020 صورة
(حسينينوربين وآخرون، 2021) التغذية، الحركة علامات الطوق، مستشعر IMU إشارات مقياس التسارع عينات معدل أخذ العينات 50 هرتز
(وانغ وآخرون 2021) التجميع طوق مع ميكروفون 9750 من توين ستار صوت، فيديو 21,924 عينة أخذ العينات
(لي وآخرون، 2021) التغذية، الحركة مجموعة بيانات عامة إشارات مقياس التسارع 5,30,485 عينة معدل
(نجوين وآخرون الشرب ثلاث كاميرات (جوبرو 5 بلاك) فيديوهات، صور RGB 1,715 فيديو، 64 ساعة 256 × 256 بكسل
(لو وآخرون، 2021) الوضعية، التركيب كاميرا الأشعة تحت الحمراء فيديوهات، صور RGB 22,509 صورة بكسل، 15 إطار في الثانية
(Xu وآخرون، 2021) التغذية، الاجتماعية 5 كاميرات برجية (MR832، 1080p) فيديوهات، صور RGB 108 صورة 1280 × 720 بكسل، 15 إطار في الثانية
(تشياو وآخرون) جاء IP المدمج DS-2DM1-714 فيديوهات، RGB im-
2022) كاميرا IP مدمجة (هيكفيجن، هانغتشو، الصين) 236 فيديو (عجل) و (بقرة)
(دين وآخرون الرضاعة كاميرا (DS-2CD3346WD- فيديوهات، صور RGB 5,000 صورة 640 × 640 بكسل، 24 إطار في الثانية
2022) أنا، هيكفيجن، هانغتشو، الصين
(ما وآخرون، 2022) حركة فيديوهات، صور RGB 224 × 224 بكسل، 25 إطار في الثانية
الكاميرات (شنتشن، شركة ييوي رويتشانغ للتكنولوجيا المحدودة، YW7100HR09-SC62- TA12 406 فيديو، كل واحد من 15-30 ثانية، 256,500 صورة
(Gu وآخرون، 2022) طوارئ كاميرا صور RGB 5,560 صورة
(غان وآخرون، اجتماعي كاميرا (DS- فيديوهات 100 فيديو، 30 × 540
2022ب) 2CD1321D-I، هيكفيجن، هانغتشو، الصين ثانية لكل بكسل، 5 إطارات في الثانية
(نو وآخرون، 2022) عرج كاميرا صور RGB 2,000 صورة بكسل
(ترنر وآخرون الوضعية، الحركة مثبت على الفك مقياس التسارع مجموعتان من البيانات
2022) إطعام أجهزة استشعار أكتيفغراف (أكتيفغراف، بنساكولا، فلوريدا، الولايات المتحدة الأمريكية) وأجهزة استشعار النشاط المثبتة على الأذن (أكسيتي في المحدودة، نيوكاسل، المملكة المتحدة) إشارات 29,179 و 2,54,087 عينة معدل أخذ العينات
(شينغ وآخرون، 2022) الوضعية، التغذية مجموعة بيانات عامة، مجموعة بيانات مخصصة مسجلة بواسطة الكاميرا فيديوهات، صور RGB 61 فيديو، 4,360 صورة بكسل
(يو وآخرون، 2022) إطعام كاميرتان عمق ZED2 (STEREOLABS) فيديوهات، صور RGB 80 فيديو، 10,288 صورة بكسل، 30 إطار في الثانية
(تشن وآخرون) الوضعية، الشرب الكاميرات (HIKVISION، هانغتشو، الصين) فيديوهات، صور RGB 12 يوم، 100 ساعة 1920 × 1080، 12
(لو وآخرون وضعية كاميرا فيديوهات، صور RGB 2,310 صورة بكسل، 15 إطار في الثانية
(غان وآخرون 2022أ) الرضاعة الكاميرات (IPX DDK1700D، الولايات المتحدة الأمريكية) فيديوهات 100 فيديو، 60 ثانية لكل واحد و8 ساعات 7 إطار في الثانية
أوهودا، 2021) التجميع، الحركة 4 كاميرات فيديوهات، صور RGB 3 أيام، 1,093 صورة بكسل
(جيانغ وآخرون. الوضعية، الشرب كاميرا EZVIZ (HIKVI- فيديوهات، RGB im- 2,000 صورة
جميع روهان وآخرون: مسودة مقدمة إلى إلسفير الصفحة 13 من 24
الجدول 6
ملخص لنماذج الشبكات العميقة وعدد الفئات وأدائها
مرجع نوع المشكلة نماذج التعلم العميق الشبكات كائنات فئات المرشحين أداء
(رحمن وآخرون 2016) التغذية، الوضعية، الحركة SAE مصنوع حسب الطلب غير متوفر 9 الدقة المتوسطة: 62%
(لينغ وآخرون. وضعية فاستر آر-سي إن إن ZFNet RPN ٥ الدقة:
2018)
وآخرون التمريض FCN VGG16 غير متوفر ٢ الدقة: 96.8%
يانغ (ناصرهمدي وضعية Faster R-CNN، R-FCN، SSD إنسيبشن V2، ريزنت50 غير متوفر ٣ mAP: 91% باستخدام Faster R-CNN و Inception V2
(لي وآخرون، 2019) تركيب ماسک آر-سي‌ان‌ان ResNet101 ResNet50، ResNet101 RPN ٢ الدقة: 91.47%
(تشو وآخرون، 2020) وضعية فاستر آر-سي إن إن ZFNet RPN ٥ الدقة المتوسطة:
(يانغ وآخرون. FCN غير متوفر ٦
2020) التغذية، الشرب، الرضاعة، الحركة أليكس نت، في جي جي 16، جوجل نت الدقة: 97.49% (الشرب)، 95.36% (التغذية)، و88.09% (الرضاعة)
(ناصرهامدي وآخرون، 2020) نقر سي إن إن مصنوع حسب الطلب غير متوفر ٢ الدقة: 96.8%
(ترنر وآخرون 2022) عض الذيل SSD، CNNLSTM VGG16، ResNet50 غير متوفر ٢ الدقة: 96.35% باستخدام
(الأمير وآخرون 2020ب) التغذية، البحث عن الطعام سي إن إن غوغل نت، سك غوغل نت غير متوفر ٧ دقة ResNet-50:
(تشن وآخرون إطعام سي إن إن – إل إس تي إم إكسبشن غير متوفر 2 الدقة: 98.4%
(آشور وآخرون إطعام 4 نماذج CNN إكسبشن غير متوفر ٢، ٢، ٦ الدقة:
2020) 17 92.61%
(الأمير وآخرون 2020أ) وضعية Faster R-CNN، YOLO ريسنت-50 RPN ٥ mAP: 98.9%
(فوينتس وآخرون 2020) الوضعية، التغذية، الاجتماعية، التزاوج Faster R-CNN، YOLOv3 VGG16، Darknet53 غير متوفر 15 mAp: 85.6% باستخدام سابتيوا-
تحليل زمني (YOLOv3)
(ين وآخرون، 2020) حركة سي إن إن – إل إس تي إم EfficientNet، VGG16، ResNet50، DenseNet169 مصممة خصيصًا بي إف بي إن ٥ الدقة: 97.87%
(بوجاج وآخرون التغذية، الحركة سي إن إن غير متوفر ٦، ٥ الدقة:
2020) (فرناندز- 97.42%
حركة سي إن إن أليكس نت غير متوفر 2
كارريون وآخرون
(جارشي وآخرون عرج LSTM مصنوع حسب الطلب غير متوفر ٤ الدقة:
96.73%
(Wuet وآخرون، 2021) الوضعية، الشرب، الحركة سي إن إن – إل إس تي إم، بي آي إل إس تي إم VGG16، VGG19، ResNet18، ResNet101، MobileNetV2، DenseNet201 غير متوفر ٥
(Chen وآخرون 2020ب) التغذية، الشرب ماسک آر-سي‌ان‌ان مصنوع حسب الطلب FPN ٣ mAP: 89.1%
(IoU) ومعامل ارتباط ماثيوز (MCC). استخدمت معظم الدراسات مجموعة من أكثر من مقياس واحد.
تم استخدام الدقة لـ 12 سلوكًا، بما في ذلك الشرب، والتغذية، والبحث عن الطعام، والعُرج، والحركة، والتزاوج، والرضاعة، والنقر، والوضعية، والاجتماعية، والرضاعة، وعض الذيل.
تم استخدام AP لثلاث سلوكيات، بما في ذلك الركوب، والوضعية، والاجتماعية. تم استخدام F1-score لعشر سلوكيات، بما في ذلك الشرب، والطوارئ، والتغذية، والبحث عن الطعام، والعرج، والحركة، والنقر، والوضعية، والاجتماعية، والرضاعة. تم استخدام المAP لثماني سلوكيات، بما في ذلك الشرب.
الجدول 6: (متابعة)
مرجع نوع المشكلة نماذج التعلم العميق الشبكات كائنات فئات المرشحين أداء
(نونس وآخرون التجميع LSTM مصنوع حسب الطلب غير متوفر ٢ mAP: 86.42%
2021) تركيب سي إن إن VGG16 غير متوفر 2 الدقة: 98%
(يانغ وآخرون. تركيب Faster R-CNN ريسنت 50 RPN ٢ الدقة:
2021) 95.15%
(كاوانو وآخرون تركيب سي إن إن ريسنت 50 غير متوفر ٤ mAP: 80.02%
حسين نوربين وآخرون، 2021 التغذية، الحركة، الشرب DNN مصنوع حسب الطلب غير متوفر 9 درجة F1: 89.3%
(وانغ وآخرون 2021) التجميع سي إن إن آر إن إن مصنوع حسب الطلب غير متوفر ٥ 93.17% استخدام
(لي وآخرون، 2021) التغذية، الحركة سي إن إن مصنوع حسب الطلب غير متوفر ٥ RNN mAP: 95.4% دقة:
(نجوين وآخرون الشرب RCNN، TSN مصنوع حسب الطلب غير متوفر ٣
2021)
(لو وآخرون، 2021) الوضعية، التركيب Faster R-CNN، YOLOv3، YOLOv5 ResNet50، Darknet53، CSPDarknet53، MobileNetV3، FPN ٥ mAP: 92.04% (YOLOv5)
وضعية ماسک آر-سي‌ان‌ان RPN ٢ mAP: 94%
(شو وآخرون، 2021) (تشياو وآخرون. حركة C3D- C3DLSTM، RNN، Inception غير متوفر ٥ الدقة: (عجل)، 86.67% (بقرة)
2022) الرضاعة FD-CNN، YOLOv5 CSPDarknet53 FPN ٣ الدقة: 93.6%
حركة سي إن إن (ريكسنت 3D) ResNet101، MobileNetV2، MobileNetV3، ShuffleNetV2، C3D غير متوفر ٣ الدقة: 95%
(Gu وآخرون، 2022) طوارئ Faster R-CNN، YOLOv5، YOLOv4 CSPDarknet53 FPN ٣ الدقة المتوسطة: 95.5% (YOLOv5)
2022ب) اجتماعي DHRN، STAGCN مصنوع حسب الطلب غير متوفر 2 الدقة: 94.21%
(نو وآخرون، 2022) عرج ماسک آر-سي‌ان‌ان ريسنت101 غير متوفر 2 الدقة: 95.5%
(ترنر وآخرون الوضعية، الحركة بي إل إس تي إم مصنوع حسب الطلب غير متوفر 9 الدقة: 61.7% باستخدام BiLSTM
(شانغ وآخرون. الوضعية، الحركة سي إن إن، يو لو 4 غير متوفر ٧، ٤ دقة 95.17% باستخدام
شوفلننت V2، موبايل نت V2، ريز نت 18، جوجل نت، موبايل نت V3
(يو وآخرون، 2022) إطعام دي آر إن – يولو دي آر نت غير متوفر ٣ mAP: 96.91%
وضعية يو لو في 5 CSPDarknet53 FPN ٤ mAP: 97.4%
2022) إطعام
(لو وآخرون، 2022) يو لو 4 ESCMobileNetV3 غير متوفر ٤ الدقة:
(غان وآخرون الرضاعة سي إن إن ريسنت101 FPN 2 96.83%
(أوشينو وأوهوا، 2021) التجميع، الحركة، الشرب يو لو في 5 CSPDarknet53 FPN ٥ الدقة: 95.2%
(جيانغ وآخرون 2020) الوضعية، الشرب، التغذية، الحركة يو لو 4 الدارك نت غير متوفر ٤ الدقة: 97.48%
التغذية، البحث عن الطعام، الحركة، التزاوج، الوضعية، الاجتماعية، وعض الذيل. تم استخدام الدقة لـ 11 سلوكًا، بما في ذلك الشرب، الطوارئ، التغذية، البحث عن الطعام، الحركة، التزاوج، النقر، الوضعية، الاجتماعية، الرضاعة، وعض الذيل. تم استخدام الاسترجاع لعشرة سلوكيات، بما في ذلك الشرب، الطوارئ، التغذية، البحث عن الطعام، الحركة، التزاوج، النقر، الوضعية، الاجتماعية، والرضاعة. تم استخدام الحساسية لسبعة سلوكيات، بما في ذلك الشرب، والتغذية.
العُرج، الحركة، التزاوج، الرضاعة، وعض الذيل. تم استخدام التخصص لـ 08 سلوكيات، بما في ذلك الشرب، التغذية، العُرج، الحركة، التزاوج، الرضاعة، الوضع، وعض الذيل.
كان اختيار مقاييس الأداء يعتمد على نوع نموذج التعلم العميق. بالنسبة لنماذج التعلم العميق مثل CNN وCNNLSTM، سواء كانت معمارية الشبكة محددة مسبقًا أو مبنية حسب الطلب، فإن المقاييس مثل الدقة، ودرجة F1، والاسترجاع،
الشكل 5: نماذج التعلم العميق المبلغ عنها في الدراسات الأساسية واستخدامها لكل مشكلة من مشاكل التعرف على السلوك.
تم استخدام الخصوصية والحساسية للتقييم. ومع ذلك، بالنسبة لنماذج التعلم العميق مثل YOLO ونسخها، وFaster R-CNN، وMask R-CNN، تم استخدام مقاييس مثل الدقة، ومتوسط الدقة المتوسطة (mAP)، ونسبة التداخل (IoU)، ومعامل الارتباط (MCC). ومن الجدير بالذكر أن متوسط الدقة المتوسطة (mAP) تم استخدامه لتقييم نموذج التعلم العميق في معظم الحالات، حيث تستخدم هذه النماذج عادةً استراتيجية صندوق الحدود لاكتشاف الكائنات. يحسب المAP درجة من خلال مقارنة صندوق الحدود الحقيقي مع الصندوق المكتشف. كلما كانت الدرجة أعلى، كانت دقة اكتشاف نموذج التعلم العميق أفضل. كانت نسبة التداخل (IoU) ومعامل الارتباط (MCC) أقل المقاييس المستخدمة لأداء السلوكيات التفاعلية الجماعية مثل الركوب.

3.5. نماذج الشبكات العميقة الفعالة (RQ. 5)

من الصعب تعميم أي نموذج DL والشبكة التي عملت بشكل أفضل لأن فئات مختلفة ومقاييس أداء متنوعة تم استخدامها لتطوير وتقييم نموذج DL لمشكلة التعرف على سلوك معين في كل من الدراسات الأساسية الأربع والأربعين. على سبيل المثال، بالنسبة للتعرف على سلوك الشرب، استخدم (وو وآخرون، 2021) CNN-LSTM، حيث تم تدريب النموذج لخمس فئات واستخدم الدقة كمقياس أداء. ومع ذلك، استخدم (أوشينو وأوهوادا، 2021) YOLOv5 بنفس عدد الفئات ولكن استخدم الدقة كمقياس أداء. علاوة على ذلك، استخدم (العمر وآخرون 2020أ) YOLO بنفس عدد الفئات ولكن استخدم mAP كمقياس أداء. لذلك، للحصول على نظرة واضحة حول أفضل نماذج DL والشبكات أداءً، تصنف هذه الدراسة SLR النتائج كنماذج DL والشبكات الأكثر فعالية بناءً على مشكلة التعرف على سلوك معين والأداء العام. تلخص الجداول 7 و8 و9 الأكثر فعالية.
نماذج الشبكات العميقة والمبنية على مشاكل التعرف على السلوك. يتم تقديم النتائج باستخدام الدقة (الجدول 7) والدقة (الجدول 8) ومتوسط الدقة المتوسطة (الجدول 9) كمقاييس للأداء. بينما توضح الأشكال 9 و10 الأداء العام العام لأفضل 10 نماذج وشبكات عميقة تم الإبلاغ عنها في الدراسات الأولية بغض النظر عن نوع مشاكل التعرف على السلوك. يتم تقديم أعلى وأدنى قيم للدقة ومتوسط الدقة المتوسطة المبلغ عنها لكل نموذج وشبكة.
كانت CNN-LSTM و YOLOv5 و YOLO هي النماذج الأكثر نجاحًا في التعرف على سلوك الشرب، بينما كانت أفضل الشبكات هي VGG16 و CSPDarknet53 و ResNet-50. كانت CNN و YOLOv5 أفضل النماذج للتعرف على سلوك التغذية، بينما كانت GoogLeNet و CSPDarknet53 أفضل الشبكات. كانت CNN و YOLOv5 و LSTM أفضل النماذج للتعرف على سلوك البحث عن الطعام، بينما كانت GoogLeNet وشبكة مخصصة أفضل الشبكات. قدمت LSTM مع شبكة مخصصة أفضل النتائج في التعرف على العرج. كانت CNN-LSTM و YOLOv5 و CNN أفضل النماذج للتعرف على الحركة، بينما كانت أفضل الشبكات هي VGG16 و CSPDarknet53 وشبكة مخصصة. كانت CNN و YOLOv5 أفضل النماذج للتعرف على سلوك التزاوج، بينما كانت أفضل الشبكات هي VGG16 و CSPDarknet53. كانت أنجح نموذج DL للتعرف على سلوك الرضاعة هو FCN مع شبكة VGG16. مع شبكة مخصصة، كانت CNN أفضل نموذج للتعرف على النقر. كانت CNN-LSTM و Faster R-CNN أفضل النماذج للتعرف على الوضعية، بينما كانت أفضل الشبكات هي VGG16 و ZFNet و ResNet-50.
الشكل 6: الشبكات العميقة المبلغ عنها في الدراسات الأولية واستخدامها لكل مشكلة من مشاكل التعرف على السلوك.
الجدول 7
أكثر نماذج وشبكات التعلم العميق فعالية بناءً على مشاكل التعرف على السلوك مع الدقة كمقياس للأداء.
نوع السلوك نموذج شبكة الدقة (%)
الشرب سي إن إن إل إس تي إم في جي جي 16 98
إطعام سي إن إن غوغل نت 99.4
التجميع سي إن إن جوجل نت 99.4
عرج LSTM مخصص ٩٦.٧٣
حركة سي إن إن إل إس تي إم VGG16 98
تركيب سي إن إن VGG16 98
التمريض FCN في جي جي 16 96.8
نقر سي إن إن مخصص 96.8
وضعية سي إن إن إل إس تي إم VGG16 98
اجتماعي C3DConvLSTM مخصص 90.32
عض الذيل سي إن إن إل إس تي إم ريسنت-50 ٩٦.٣٥

3.6. التحديات (RQ. 6)

نظرًا لأن التعلم العميق والذكاء الاصطناعي لا يزالان في مرحلة التطوير، فإن هناك تحديات محددة مرتبطة بتصميم وتنفيذ هذه التقنيات. خاصةً بالنسبة لمهام مثل التعرف على سلوك الماشية، كانت هناك 13 تحديًا كبيرًا.
الجدول 8
أكثر نماذج وشبكات التعلم العميق فعالية بناءً على مشاكل التعرف على السلوك مع الدقة كمقياس للأداء.
نوع السلوك نموذج شبكة الدقة (%)
الشرب يو لو في 5 CSPDarknet53 95.2
طوارئ يو لو في 5 CSPDarknet53 95.5
التجميع يو لو في 5 CSPDarknet53 95.2
حركة يو لو 5 CSPDarknet53 95.2
وضعية فاستر آر-سي إن إن ZFNet 95.47
اجتماعي ستاجكن مخصص ٩٤.٢١
الرضاعة سي إن إن ريسنت101 95.2
كما هو موضح في الدراسات الأولية. الشكل 11 يوضح التحديات المرتبطة بتطبيق التعلم العميق في التعرف على سلوك الماشية.
أهم هذه التحديات الثلاثة عشر التي أشار إليها كانت الدراسات الأساسية تتعلق بالانسداد والالتصاق. يحدث الانسداد والالتصاق عندما يحجب جسم ما في الصورة جزءًا من جسم آخر أو عندما يتلامس جسم مع جسم آخر مماثل. وغالبًا ما يحدث هذا في المزارع التي تحتوي على عدة حيوانات في مجموعة واحدة في الصورة. تم الإبلاغ عن أنواع متعددة من الانسدادات؛ يمكن أن يحدث الانسداد بفعل الحيوانات نفسها، المعروف باسم الانسداد الذاتي. يحدث الانسداد الذاتي عندما يحجب جزء من الجسم جزءًا أساسيًا آخر، مما يعيق الميزات المطلوبة للتعرف على الأنماط في الصورة من أجل اكتشاف الأجسام.
الشكل 7: تركيبات نماذج DL والشبكات المبلغ عنها في الدراسات الأساسية.
الجدول 9
أكثر نماذج وشبكات التعلم العميق فعالية بناءً على مشاكل التعرف على السلوك مع متوسط الدقة كمعيار للأداء.
نوع السلوك نموذج شبكة معدل الدقة المتوسطة (%)
الشرب يولو ريزنت-50 98.9
إطعام يو لو في 5 CSPDarknet53 97.4
التجميع LSTM مخصص ٨٦.٤٢
حركة سي إن إن مخصص 95.4
تركيب يو لو 5 CSPDarknet53 92.04
وضعية أسرع ريسنت-50 98.9
آر-سي إن إن
اجتماعي يو لو v3 دارك نت 53 85.6
يمكن أن يحدث حجب بين الكائنات أيضًا عندما تكون أنواع مشابهة من الكائنات في الصورة. يحدث حجب الخلفية عندما يختلط خلفية الكائن الذي يتم التعرف عليه مع الكائن نفسه.
تم الإبلاغ عن عدم توازن البيانات والبيئات المعقدة بواسطة من الدراسات الأساسية كغيرها من التحديات البارزة. يحدث عدم توازن البيانات عندما لا يتم توزيع عدد العينات لكل فئة بشكل متساوٍ. في معظم الأحيان، يوجد كمية كبيرة من البيانات لفئة واحدة، تُعرف بالفئة السائدة، وعدد أقل نسبيًا من العينات لفئة أو فئتين أخريين، تُعرف بالفئات الأقل، مما يؤدي إلى نتائج متحيزة وغير دقيقة. على العكس، فإن البيئة المعقدة لمزارع الماشية هي قضية رئيسية أخرى لتطوير حلول تعتمد على رؤية الكمبيوتر.
البيئة في هذه المزارع غالبًا ما تخلق خلفيات معقدة في الصورة بسبب تأثير مصابيح الحرارة، وبقع الماء والبول، والسماد، وحالة الأرضية المعقدة. بيئة المزرعة متغيرة، وهناك أصوات خلفية غير متوقعة جزئيًا. تجعل التدخلات من الوضعيات والبيئة، والمساحة الواسعة، ووجود عدد كبير من الحيوانات تطبيق التعلم العميق تحديًا كبيرًا. تحدٍ آخر مهم تم الإبلاغ عنه من قبل تتعلق الدراسات الأساسية بالإضاءة وتغيرات الطقس. تم الإبلاغ عن أن الإضاءة المختلفة للمشاهد، وشدة الضوء المتغيرة، والتغير في الإضاءة على مدار اليوم ومن خلال أقلام أو حظائر مختلفة، والبيانات المسجلة تحت ظروف ضوئية مختلفة تعيق تطوير نماذج التعلم العميق المستدامة.
نقص توفر البيانات الكافية، المعروف بنقص البيانات، كان تحديًا آخر تم الإبلاغ عنه من قبل من الدراسات الأساسية. كان دمج الخلفية تحديًا آخر تم الإبلاغ عنه من قبل من الدراسات الأساسية. التباين المنخفض بين الحيوان والخلفية، ولون الحيوان الذي يختلط بالخلفية، يجعل من الصعب التمييز بين الخلفية والشيء في الصورة. تم اكتشاف أن بعض سلوكيات الحيوانات كانت متشابهة جدًا. على سبيل المثال، هناك تشابه بين سلوك تغذية الأبقار وسلوك انحناء العشب، وبين اللعب العدواني للخنازير الصغيرة والسلوك الاجتماعي. تم الإبلاغ عن هذه التشابهات السلوكية من قبل من الدراسات الأساسية. بالمثل، من الدراسات الأساسية أبلغت عن تشابهات الأجسام، الحيوانات ذات الألوان والأشكال والأنماط والأحجام المتشابهة في صورة كمسألة مهمة. بعض التحديات الأخرى، مثل سوء التقدير بين الفئات المختلفة، المعروفة باسم
الشكل 8: مقاييس الأداء المستخدمة للتقييم في الدراسات الأساسية.
سوء التصنيف واكتشاف الأجسام المفقودة في الفيديوهات، تم الإبلاغ عنها أيضًا من قبل من الدراسات الأساسية.
على الرغم من أن سلوك الحيوان يختلف على نطاق واسع، إلا أنه يمكن أن تكون هناك تشابهات كبيرة بين سلوكيات مختلفة. تم الإبلاغ عن التعريفات غير الكافية للسلوكيات كحاجز في من الدراسات الأساسية لإنشاء نماذج DL أكثر وضوحًا وحيادية. كان تحديًا رئيسيًا آخر من الدراسات التي تم تحديدها هو الحصول على تمثيل قوي للميزات في المشاهد الطبيعية، واستخراج الميزات، وجمع البيانات باستخدام أدوات عالية الجودة.
الاحتجاب والالتصاق، ودمج الخلفية، والتحديات المتعلقة بالبيئة المعقدة لا تزال مشاكل بحث مفتوحة في رؤية الكمبيوتر. هناك عدة طرق لحل هذه التحديات، مثل الطريقة التي تستخدم تقسيم الصورة التي قدمها (Chilukuri et al., 2022). معظم التحديات التي تم الإبلاغ عنها في الدراسات الأساسية مرتبطة بشكل مباشر أو غير مباشر بالبيانات. يمكن حل التحدي، مثل عدم توازن البيانات، من خلال تسجيل البيانات مع عينات كافية لكل فئة. يمكن أيضًا تقليل تأثير الإضاءة المختلفة الناتجة عن الظلال أو تغيرات الطقس من خلال إنشاء مجموعة بيانات غنية بالعينات التي تم جمعها تحت ظروف إضاءة وطقس مختلفة. يمكن تقليل ندرة البيانات من خلال جمع البيانات بجودة وكمية جيدة. يمكن حل التحديات المتعلقة بتشابه الأجسام والسلوكيات وتعريفات السلوك غير الصحيحة من خلال تعريف السلوكيات بشكل صحيح بحيث يكون هناك حد أدنى من الارتباك بين السلوكيات المختلفة.

4. المناقشة

التعرف على السلوك هو مشكلة معقدة تم تناولها سابقًا من خلال تركيب عدة حساسات مادية على جسم الحيوان. لقد أثبتت هذه الحساسات أنها تسبب ضغوطًا على الحيوانات، مما يؤثر سلبًا على صحتها ورفاهيتها. لقد ظهرت تقنيات رؤية الكمبيوتر المعتمدة على التكنولوجيا مؤخرًا كحل أكثر بروزًا من الأساليب التقليدية المعتمدة على الحساسات المادية.
على الرغم من أن العديد من الدراسات التي تركز على استخدام تقنيات الرؤية قد حققت بعض النتائج الواعدة في التعامل مع مشكلة التعرف على سلوكيات الماشية، لا يزال هناك حاجة إلى نهج شامل. معظم الأساليب المستخدمة في الدراسات تعتمد على اكتشاف الأجسام إطارًا بإطار. تم استخدام نماذج اكتشاف الأجسام مثل YOLO و R-CNNs و CNNs في معظم الدراسات الأساسية. هذه النماذج تكتشف الأجسام في إطار واحد في كل مرة وتتعرف على السلوك من خلال اكتشاف الأجسام باستمرار في مجموعة من الإطارات (الفيديوهات).
على العكس، كما هو الحال مع المشكلة ثلاثية الأبعاد، تم مناقشة التعرف على السلوك على نطاق واسع في الأدبيات. وذلك لأنه عند اكتشاف سلوك، هناك حاجة لاستخراج المعلومات من فيديو لفترة زمنية محددة. كما ذُكر سابقًا، يمكن ملاحظته في الجدول 4 أن السلوك، حسب التعريف، يعتمد على الزمن ويتكون من سلسلة من الأفعال. في حالة التعرف على السلوك، الوقت هو معلمة حاسمة. في السنوات الأخيرة، ظهرت التحليل الزماني المكاني كنهج أفضل بكثير للتعرف على الأفعال، نظرًا لأنه يأخذ في الاعتبار المعلومات الزمنية في الفيديوهات والأجسام.
الشكل 9: الأداء العام العام لأفضل 10 نماذج DL.
على الرغم من أن بعض الدراسات الحديثة قد نشرت نماذج DL ثلاثية الأبعاد تعتمد على التحليل الزماني المكاني، مثل TSN و C3DConvLSTM، لا يزال التعرف على سلوكيات الماشية محصورًا في اكتشاف الأجسام ثنائية الأبعاد.
يمكن أن يعزز تطبيق التحليل الزماني المكاني كفاءة نماذج DL. يتطلب تنفيذ هذه الاستراتيجيات كمية كافية من البيانات. ومع ذلك، فإن البيانات ليست متاحة بسهولة للتعرف على سلوكيات الماشية. يمكن استخدام عدد قليل من مجموعات البيانات المتاحة للجمهور لتدريب واختبار والتحقق من نماذج DL (Ng et al., 2022). استخدمت معظم الدراسات مجموعات بيانات مخصصة تم تسجيلها في عدة مزارع تحت ظروف مختلفة وليست متاحة للجمهور. هذه الندرة في توفر البيانات هي عنق زجاجة كبير في تطوير نماذج DL للتعرف على سلوكيات الماشية. يجب إنشاء المزيد من مجموعات البيانات العامة التي تركز على السلوكيات حتى يتمكن المزيد من الباحثين من المساهمة في تطوير هذه التقنيات. علاوة على ذلك، لا توجد إرشادات لتعريف السلوكيات. تم العثور على تعريفات متعددة لنوع واحد من السلوك في دراسات مختلفة. على سبيل المثال، تم وصف المشي بأنه التحرك في وضع الوقوف، الرأس مرفوع والمشي، الأرجل تتحرك بشكل متكرر، وتغيرات كبيرة في وضع البقرة، وحركة الساق لأكثر من 3 ثوان. معظم هذه التعريفات تعتمد على الملاحظات الشخصية ولا تشمل أحكام الخبراء. يمكن أن تساعد مجموعة موحدة من التعريفات لكل سلوك حيواني بالتنسيق مع علماء سلوك الحيوان في جمع بيانات ملموسة، ولكن أيضًا في إنشاء نماذج DL بشكل أكثر منهجية. سيساعد ذلك أيضًا في مقارنة فعالية النماذج المختلفة على نفس المستوى. لم تشارك أي من الدراسات الأساسية البيانات المستخدمة
لتطوير نماذج DL، سيكون من المهم أيضًا أنه حيثما كان ذلك ممكنًا، يتم مشاركة البيانات المستخدمة في الدراسات مع الوصول المفتوح للجمهور لاختبار طرق أخرى محتملة ولإعادة إنتاج النتائج.

5. الخاتمة

تستعرض هذه المراجعة الأدبية المنهجية (SLR) تطبيق تقنيات التعلم العميق (DL) للتعرف على سلوكيات الماشية. إن التعرف الدقيق على سلوكيات الماشية أمر حاسم لمراقبة صحة الحيوانات في البيئات الزراعية الخاضعة للرقابة. لقد جعلت التطورات الأخيرة في الذكاء الاصطناعي ورؤية الكمبيوتر والتعلم العميق الأنظمة الآلية التي يمكنها التعرف بشكل مستقل على التغيرات في سلوك الحيوان والمشاكل الصحية الأساسية ممكنة. تسلط نتائج هذه الدراسة الضوء على الإمكانات الهائلة لـ DL في التعرف على سلوكيات الحيوانات بشكل أكثر كفاءة من الأساليب التقليدية المعتمدة على التحليل البشري التي تم استخدامها لعقود. ومع ذلك، على الرغم من النتائج الواعدة، لا يزال التعرف على سلوكيات الماشية المعتمد على DL في مراحله المبكرة من التطوير ويواجه العديد من التحديات. تشمل التحديات الكبيرة الاحتجاب والالتصاق، والبيئات المعقدة، وتغيرات الإضاءة والطقس، ودمج الخلفية، وهي مشكلات معروفة في مجتمع رؤية الكمبيوتر. الجهود البحثية جارية لمعالجة هذه التحديات. يمكن معالجة تحديات أخرى، مثل عدم توازن البيانات، وندرة البيانات، واكتساب البيانات، من خلال استراتيجيات ملموسة لتسجيل مجموعات بيانات عالية الجودة تحتوي على معلومات كافية لكل فئة سلوكية.
الشكل 10: الأداء العام العام لأفضل 10 شبكات DL.
الشكل 11: التحديات المتعلقة بتطبيق DL للتعرف على سلوكيات الماشية.
علاوة على ذلك، لا يمكن اعتبار أي نموذج DL واحد هو الأفضل، حيث استخدم الباحثون نماذج مختلفة لمشاكل التعرف على سلوكيات مشابهة. ومع ذلك، أظهرت نماذج CNN و CNN-LSTM و Faster R-CNN و YOLOv5 أداءً ملحوظًا مقارنةً بالآخرين
النماذج. تم الإبلاغ أيضًا عن أن الأساليب غير التلامسية لها مزايا كبيرة على الأساليب المعتمدة على التلامس. بالإضافة إلى ذلك، قامت بعض النماذج، مثل C3D Conv-LSTM، بدمج ميزات المجال الزمني بالإضافة إلى ميزات المجال المكاني. أظهرت الأبحاث الحديثة حول التعرف على أفعال الإنسان، التي تعتبر أكثر تقدمًا من التعرف على سلوك الماشية، أن التحليل الزمني المكاني، الذي يأخذ في الاعتبار الميزات المكانية والزمنية في الصورة، يمكن أن يسفر عن نتائج واعدة. قد يكون هذا اتجاهًا بحثيًا مثيرًا لتطوير نماذج تعلم عميق أكثر استدامة للتعرف على سلوك الماشية. أخيرًا، تقتصر هذه الدراسة على الأعمال المنشورة بين عامي 2012 وأكتوبر 2022. تم اختيار المقالات من أهم قواعد البيانات البحثية باستخدام المعايير الموضحة في هذه الدراسة؛ لم يتم تضمين المقالات من قواعد بيانات أخرى في هذه المراجعة.

تعارض المصالح

يعلن المؤلفون أنه لا يوجد تعارض في المصالح.

شكر وتقدير

تم دعم هذا البحث ماليًا من قبل Innovate UK (اسم المشروع: نحو زراعة الألبان صفرية الانبعاثات من خلال الذكاء الاصطناعي ورؤية الآلة (DAIRYVISION)، مرجع المشروع: 107458)

إعلان عن الذكاء الاصطناعي التوليدي والتقنيات المدعومة بالذكاء الاصطناعي في عملية الكتابة

خلال إعداد هذا العمل، استخدم المؤلفون ChatGPT من أجل تحسين اللغة الإنجليزية وتصحيح الأخطاء النحوية المحتملة. بعد استخدام هذه الأداة/الخدمة، قام المؤلفون بمراجعة وتحرير المحتوى حسب الحاجة ويتحملون المسؤولية الكاملة عن محتوى المنشور.

بيان مساهمة تأليف CRediT

: التصور: أ.ر. و ت.د.; تنسيق البيانات: أ.ر.، م.ج.هـ.، م.س.ر.، ف.أ. و أ.ك.ب.; التحليل الرسمي: أ.ر.، م.ج.هـ.، م.س.ر.، ف.أ. و أ.ك.ب.; الحصول على التمويل: ت.د.; التحقيق: أ.ر.، م.ج.هـ. و ف.أ.; المنهجية: أ.ر.; إدارة المشروع: ت.د.; الموارد: ت.د.; البرمجيات: أ.ر.، م.ج.هـ. و ف.أ.; الإشراف: ت.د.; التحقق: أ.ر.، م.س.ر.، ف.أ.، أ.ك.ب. و ت.د.; التصور: أ.ر. و م.س.ر.; الكتابة – المسودة الأصلية: أ.ر.، م.س.ر. و أ.ك.ب.; الكتابة – مراجعة التحرير: أ.ر.، م.س.ر.، أ.ك.ب. و ت.د.

References

Achour, B., Belkadi, M., Filali, I., Laghrouche, M., Lahdir, M., 2020. Image analysis for individual identification and feeding behaviour monitoring of dairy cows based on convolutional neural networks (cnn). Biosystems Engineering 198, 31-49.
Alameer, A., Kyriazakis, I., Bacardit, J., 2020a. Automated recognition of postures and drinking behaviour for the detection of compromised health in pigs. Scientific reports 10, 13665 .
Alameer, A., Kyriazakis, I., Dalton, H.A., Miller, A.L., Bacardit, J., 2020b. Automatic recognition of feeding and foraging behaviour in pigs using deep learning. Biosystems engineering 197, 91-104.
Atkinson, G.A., Smith, L.N., Smith, M.L., Reynolds, C.K., Humphries, D.J., Moorby, J.M., Leemans, D.K., Kingston-Smith, A.H., 2020. A computer vision approach to improving cattle digestive health by the monitoring of faecal samples. Scientific Reports 10, 17557.
Bareille, N., Beaudeau, F., Billon, S., Robert, A., Faverdin, P., 2003. Effects of health disorders on feed intake and milk production in dairy cows. Livestock production science 83, 53-62.
Bocaj, E., Uzunidis, D., Kasnesis, P., Patrikakis, C.Z., 2020. On the benefits of deep convolutional neural networks on animal activity recognition, in: 2020 International Conference on Smart Systems and Technologies (SST), IEEE. pp. 83-88.
Chen, C., Zhu, W., Steibel, J., Siegford, J., Han, J., Norton, T., 2020a. Recognition of feeding behaviour of pigs and determination of feeding time of each pig by a video-based deep learning method. Computers and Electronics in Agriculture 176, 105642.
Chen, Y.R., Ni, C.T., Ng, K.S., Hsu, C.L., Chang, S.C., Hsu, C.B., Chen, P.Y., 2020b. An ai-based system for monitoring behavior and growth of pigs, in: 2020 International Computer Symposium (ICS), IEEE. pp. 91-95.
Cheng, M., Yuan, H., Wang, Q., Cai, Z., Liu, Y., Zhang, Y., 2022. Application of deep learning in sheep behaviors recognition and influence analysis of training data characteristics on the recognition effect. Computers and Electronics in Agriculture 198, 107010.
Chidgey, K.L., Morel, P.C., Stafford, K.J., Barugh, I.W., 2015. Sow and piglet productivity and sow reproductive performance in farrowing pens with temporary crating or farrowing crates on a commercial new zealand pig farm. Livestock Science 173, 87-94.
Chilukuri, D.M., Yi, S., Seong, Y., 2022. A robust object detection system with occlusion handling for mobile devices. Computational Intelligence 38, 1338-1364. URL: https://onlinelibrary.
wiley.com/doi/abs/10.1111/coin.12511 doihttps:// doi.org/10.1111/coin. 12511
Cohen, J., 1968. Weighted kappa: nominal scale agreement provision for scaled disagreement or partial credit. Psychological bulletin 70, 213.
Ding, Q.a., Chen, J., Shen, M.x., Liu, L.s., 2022. Activity detection of suckling piglets based on motion area analysis using frame differences in combination with convolution neural network. Computers and Electronics in Agriculture 194, 106741.
Fernández-Carrión, E., Barasona, J.Á., Sánchez, Á., Jurado, C., CadenasFernández, E., Sánchez-Vizcaíno, J.M., 2020. Computer vision applied to detect lethargy through animal motion monitoring: a trial on african swine fever in wild boar. Animals 10, 2241.
Flower, F., De Passillé, A., Weary, D., Sanderson, D., Rushen, J., 2007. Softer, higher-friction flooring improves gait of cows with and without sole ulcers. Journal of dairy science 90, 1235-1242.
Flower, F., Sanderson, D., Weary, D., 2005. Hoof pathologies influence kinematic measures of dairy cow gait. Journal of dairy science 88, 3166-3173.
Food and Agriculture Organization of the United Nations 2022, . The State of Food and Agriculture 2022: Leveraging agricultural automation for transforming agrifood systems. Number 2022 in The State of Food and Agriculture (SOFA), FAO. URL: https://www. fao.org/documents/card/en/c/cb9479en doi10.4060/ cb9479en
Fuentes, A., Yoon, S., Park, J., Park, D.S., 2020. Deep learning-based hierarchical cattle behavior recognition with spatio-temporal information. Computers and Electronics in Agriculture 177, 105627.
Gan, H., Ou, M., Li, C., Wang, X., Guo, J., Mao, A., Ceballos, M.C., Parsons, T.D., Liu, K., Xue, Y., 2022a. Automated detection and analysis of piglet suckling behaviour using high-accuracy amodal instance segmentation. Computers and Electronics in Agriculture 199, 107162.
Gan, H., Xu, C., Hou, W., Guo, J., Liu, K., Xue, Y., 2022b. Spatiotemporal graph convolutional network for automated detection and analysis of social behaviours among pre-weaning piglets. Biosystems Engineering 217, 102-114.
Garcia, R., Aguilar, J., Toro, M., Pinto, A., Rodriguez, P., 2020. A systematic literature review on the use of machine learning in precision livestock farming. Computers and Electronics in Agriculture 179, 105826.
Gonçalves, P., Pedreiras, P., Monteiro, A., 2022. Recent advances in smart farming. Animals 12, 705.
Grace, D., 2019. Infectious diseases and agriculture, 439-447URL: https://www.ncbi.nlm.nih.gov/pmc/articles/
PMC7161382/ doi 10.1016/B978-0-08-100596-5. 21570-9
Gu, Y., Wang, S., Yan, Y., Tang, S., Zhao, S., 2022. Identification and analysis of emergency behavior of cage-reared laying ducks based on yolov5. Agriculture 12, 485.
Hosseininoorbin, S., Layeghy, S., Kusy, B., Jurdak, R., Bishop-Hurley, G.J., Greenwood, P.L., Portmann, M., 2021. Deep learning-based cattle behaviour classification using joint time-frequency data representation. Computers and Electronics in Agriculture 187, 106241.
Hu, H., Dai, B., Shen, W., Wei, X., Sun, J., Li, R., Zhang, Y., 2020. Cow identification based on fusion of deep parts features. Biosystems engineering 192, 245-256.
Jarchi, D., Kaler, J., Sanei, S., 2021. Lameness detection in cows using hierarchical deep learning and synchrosqueezed wavelet transform. IEEE Sensors Journal 21, 9349-9358.
Jiang, M., Rao, Y., Zhang, J., Shen, Y., 2020. Automatic behavior recognition of group-housed goats using deep learning. Computers and Electronics in Agriculture 177, 105706.
Kawano, Y., Saito, S., Nakano, T., Kondo, I., Yamazaki, R., Kusaka, H., Sakaguchi, M., Ogawa, T., 2021. Toward building a data-driven system for detecting mounting actions of black beef cattle, in: 2020 25th International Conference on Pattern Recognition (ICPR), IEEE. pp. 4458-4464.
Kitchenham, B., Brereton, O.P., Budgen, D., Turner, M., Bailey, J., Linkman, S., 2009. Systematic literature reviews in software
engineering-a systematic literature review. Information and software technology 51, 7-15.
Kitchenham, B.A., Charters, S., 2007. Guidelines for performing Systematic Literature Reviews in Software Engineering. Technical Report EBSE 2007-001. Keele University and Durham University Joint Report. URL: https://www.elsevier.com/_data/promis misc/525444systematicreviewsguide.pdf
Kong, Y., Fu, Y., 2022. Human action recognition and prediction: A survey. International Journal of Computer Vision 130, 1366-1401.
Laradji, I., Rodriguez, P., Kalaitzis, F., Vazquez, D., Young, R., Davey, E., Lacoste, A., 2020. Counting cows: Tracking illegal cattle ranching from high-resolution satellite imagery. arXiv preprint arXiv:2011.07369 .
Li, C., Tokgoz, K.K., Fukawa, M., Bartels, J., Ohashi, T., Takeda, K.i., Ito, H., 2021. Data augmentation for inertial sensor data in cnns for cattle behavior classification. IEEE Sensors Letters 5, 1-4.
Li, D., Chen, Y., Zhang, K., Li, Z., 2019. Mounting behaviour recognition for pigs based on deep learning. Sensors 19, 4924.
Liu, D., Oczak, M., Maschat, K., Baumgartner, J., Pletzer, B., He, D., Norton, T., 2020. A computer vision-based method for spatialtemporal action recognition of tail-biting behaviour in group-housed pigs. Biosystems Engineering 195, 27-41.
Lovarelli, D., Bacenetti, J., Guarino, M., 2020. A review on dairy cattle farming: Is precision livestock farming the compromise for an environmental, economic and social sustainable production? Journal of Cleaner Production 262, 121409.
Lu, L., Mao, L., Wang, J., Gong, W., 2022. Reserve sow pose recognition based on improved yolov4, in: 2022 IEEE Asia-Pacific Conference on Image Processing, Electronics and Computers (IPEC), IEEE. pp. 15381546.
Luo, Y., Zeng, Z., Lu, H., Lv, E., 2021. Posture detection of individual pigs based on lightweight convolution neural networks and efficient channelwise attention. Sensors 21, 8369.
Ma, S., Zhang, Q., Li, T., Song, H., 2022. Basic motion behavior recognition of single dairy cow based on improved rexnet 3d network. Computers and Electronics in Agriculture 194, 106772.
Mahmud, M.S., Zahid, A., Das, A.K., Muzammil, M., Khan, M.U., 2021. A systematic literature review on deep learning applications for precision cattle farming. Computers and Electronics in Agriculture 187, 106313.
Nasirahmadi, A., Edwards, S.A., Sturm, B., 2017. Implementation of machine vision for detecting behaviour of cattle and pigs. Livestock Science 202, 25-38.
Nasirahmadi, A., Gonzalez, J., Sturm, B., Hensel, O., Knierim, U., 2020. Pecking activity detection in group-housed turkeys using acoustic data and a deep learning technique. Biosystems engineering 194, 40-48.
Nasirahmadi, A., Sturm, B., Edwards, S., Jeppsson, K.H., Olsson, A.C., Müller, S., Hensel, O., 2019. Deep learning and machine vision approaches for posture detection of individual pigs. Sensors 19, 3738.
Ng, X.L., Ong, K.E., Zheng, Q., Ni, Y., Yeo, S.Y., Liu, J., 2022. Animal kingdom: A large and diverse dataset for animal behavior understanding, in: Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), pp. 19023-19034.
Nguyen, C., Wang, D., Von Richter, K., Valencia, P., Alvarenga, F.A., Bishop-Hurley, G., 2021. Video-based cattle identification and action recognition, in: 2021 Digital Image Computing: Techniques and Applications (DICTA), IEEE. pp. 01-05.
Noe, S.M., Zin, T.T., Tin, P., Kobayashi, I., 2021. Automatic detection of mounting behavior in cattle using semantic segmentation and classification, in: 2021 IEEE 3rd Global Conference on Life Sciences and Technologies (LifeTech), IEEE. pp. 227-228.
Noe, S.M., Zin, T.T., Tin, P., Kobayashi, I., 2022. A deep learningbased solution to cattle region extraction for lameness detection, in: 2022 IEEE 4th Global Conference on Life Sciences and Technologies (LifeTech), IEEE. pp. 572-573.
Nowodziński, P., 2021. Sustainability challenges URL: https:// startsmartcee.org/sustainability-challenges/
Nunes, L., Ampatzidis, Y., Costa, L., Wallau, M., 2021. Horse foraging behavior detection using sound recognition techniques and artificial intelligence. Computers and Electronics in Agriculture 183, 106080.
Orihuela, A., 2021. Management of livestock behavior to improve welfare and production. Animal 15, 100290.
Qiao, Y., Guo, Y., Yu, K., He, D., 2022. C3d-convlstm based cow behaviour classification using video data for precision livestock farming. Computers and Electronics in Agriculture 193, 106650.
Qiao, Y., Su, D., Kong, H., Sukkarieh, S., Lomax, S., Clark, C., 2020. Bilstm-based individual cattle identification for automated precision livestock farming, in: 2020 IEEE 16th International Conference on Automation Science and Engineering (CASE), IEEE. pp. 967-972.
Rahman, A., Smith, D., Hills, J., Bishop-Hurley, G., Henry, D., Rawnsley, R., 2016. A comparison of autoencoder and statistical features for cattle behaviour classification, in: 2016 international joint conference on neural networks (IJCNN), IEEE. pp. 2954-2960.
Santoni, M.M., Sensuse, D.I., Arymurthy, A.M., Fanany, M.I., 2015. Cattle race classification using gray level co-occurrence matrix convolutional neural networks. Procedia Computer Science 59, 493-502.
Shang, C., Wu, F., Wang, M., Gao, Q., 2022. Cattle behavior recognition based on feature fusion under a dual attention mechanism. Journal of Visual Communication and Image Representation 85, 103524.
Shankar, B., Madhusudhan, H., DB, H., 2009. Pre-weaning mortality in pig-causes and management. Veterinary world 2.
Slob, N., Catal, C., Kassahun, A., 2021. Application of machine learning to improve dairy farm management: A systematic literature review. Preventive Veterinary Medicine 187, 105237.
Tabak, M.A., Norouzzadeh, M.S., Wolfson, D.W., Sweeney, S.J., VerCauteren, K.C., Snow, N.P., Halseth, J.M., Di Salvo, P.A., Lewis, J.S., White, M.D., et al., 2019. Machine learning to classify animal species in camera trap images: Applications in ecology. Methods in Ecology and Evolution 10, 585-590.
Thorup, V.M., Nielsen, B.L., Robert, P.E., Giger-Reverdin, S., Konka, J., Michie, C., Friggens, N.C., 2016. Lameness affects cow feeding but not rumination behavior as characterized from sensor data. Frontiers in Veterinary Science 3. URL: https://www.frontiersin.org/articles/10.3389/ fvets. 2016.00037 doi 10.3389 / fvets. 2016.00037
Turner, K.E., Thompson, A., Harris, I., Ferguson, M., Sohel, F., 2022. Deep learning based classification of sheep behaviour from accelerometer data with imbalance. Information Processing in Agriculture URL: https://www.sciencedirect. com/science/article/pii/S2214317322000415. doi https://doi.org/10.1016/j.inpa.2022.04.001
Uchino, T., Ohwada, H., 2021. Individual identification model and method for estimating social rank among herd of dairy cows using yolov5, in: 2021 IEEE 20th International Conference on Cognitive Informatics & Cognitive Computing (ICCI* CC), IEEE. pp. 235-241.
Wang, K., Wu, P., Cui, H., Xuan, C., Su, H., 2021. Identification and classification for sheep foraging behavior based on acoustic signal and deep learning. Computers and Electronics in Agriculture 187, 106275. URL: https://www.sciencedirect. com/science/article/pii/S0168169921002921.
doi https://doi.org/10.1016/j.compag.2021.106275
Wu, D., Wang, Y., Han, M., Song, L., Shang, Y., Zhang, X., Song, H., 2021. Using a cnn-lstm for basic behaviors detection of a single dairy cow in a complex environment. Computers and Electronics in Agriculture 182, 106016. URL: https: / /www.sciencedirect. com/science/article/pii/S016816992100034X.
doi https://doi.org/10.1016/j.compag.2021.106016
Xu, B., Wang, W., Guo, L., Chen, G., Li, Y., Cao, Z., Wu, S., 2022. Cattlefacenet: A cattle face identification approach based on retinaface and arcface loss. Computers and Electronics in Agriculture 193, 106675. URL: https: //www.sciencedirect. com/science/article/pii/S016816992100692X doi https://doi.org/10.1016/j.compag.2021.106675
Xu, J., Wu, Q., Zhang, J., Tait, A., 2021. Automatic sheep behaviour analysis using mask r-cnn, in: 2021 Digital Image Computing: Techniques and Applications (DICTA), pp. 01-06. doi 10.1109 /DICTA52665. 2021.9647101
Yang, A., Huang, H., Zheng, B., Li, S., Gan, H., Chen, C., Yang, X., Xue, Y., 2020. An automatic recognition framework for sow daily behaviours based on motion and image analyses. Biosystems Engineering 192, 56-71. URL: https://www.sciencedirect.com/ science/article/pii/S1537511020300283 doihttps: //doi.org/10.1016/j.biosystemseng.2020.01.016
Yang, A., Huang, H., Zhu, X., Yang, X., Chen, P., Li, S., Xue, Y., 2018. Automatic recognition of sow nursing behaviour using deep learning-based segmentation and spatial and temporal features. Biosystems Engineering 175, 133-145. URL: https://www.sciencedirect.com/science/article/ pii/S1537511018304641 doi https://doi.org/10. 1016/j.biosystemseng.2018.09.011
Yang, Q., Xiao, D., Cai, J., 2021. Pig mounting behaviour recognition based on video spatial-temporal features. Biosystems Engineering 206, 55-66. URL: https://www.sciencedirect.com/ science/article/pii/S1537511021000726 doi https: //doi.org/10.1016/j.biosystemseng.2021.03.011
Yao, L., Hu, Z., Liu, C., Liu, H., Kuang, Y., Gao, Y., 2019. Cow face detection and recognition based on automatic feature extraction algorithm, in: Proceedings of the ACM Turing Celebration Conference – China, Association for Computing Machinery, New York, NY, USA. URL: https: / /doi.org/10.1145/3321408. 3322628 doi
Yin, X., Wu, D., Shang, Y., Jiang, B., Song, H., 2020. Using an efficientnet-lstm for the recognition of single cow’s motion behaviours in a complicated environment. Computers and Electronics in Agriculture 177, 105707. URL: https: / /www.sciencedirect. com/science/article/pii/S0168169920315386 doi https://doi.org/10.1016/j.compag.2020.105707
Yu, Z., Liu, Y., Yu, S., Wang, R., Song, Z., Yan, Y., Li, F., Wang, Z., Tian, F., 2022. Automatic detection method of dairy cow feeding behaviour based on yolo improved model and edge computing. Sensors 22. URL: https: //www.mdpi.com/1424-8220/22/9/3271 doi 10.3390 /s22093271
Zheng, C., Zhu, X., Yang, X., Wang, L., Tu, S., Xue, Y., 2018. Automatic recognition of lactating sow postures from depth images by deep learning detector. Computers and Electronics in Agriculture 147, 51-63. URL: https://www.sciencedirect. com/science/article/pii/S0168169917309985 doi https://doi.org/10.1016/j.compag.2018.01.023
Zhu, X., Chen, C., Zheng, B., Yang, X., Gan, H., Zheng, C., Yang, A., Mao, L., Xue, Y., 2020. Automatic recognition of lactating sow postures by refined two-stream rgb-d faster r-cnn. Biosystems Engineering 189, 116-132. URL: https://www.sciencedirect.com/ science/article/pii/S153751101930892X doihttps: //doi.org/10.1016/j.biosystemseng.2019.11.013

  1. *Corresponding authors at National Subsea Centre, School of Computing, Robert Gordon University, Aberdeen AB10 7AQ, UK (A.R.); School of Veterinary Medicine and Sciences, University of Nottingham, Sutton Bonington Campus, Loughborough, LE12 5RD, UK (T.D.). E-mail addresses: a.rohan@rgu.ac.uk (A.R.), tania.dottorini@nottingham.ac.uk (T. D).

Journal: Computers and Electronics in Agriculture, Volume: 224
DOI: https://doi.org/10.1016/j.compag.2024.109115
Publication Date: 2024-06-27

Application of deep learning for livestock behaviour recognition: A systematic literature review

Ali Rohan , Muhammad Saad Rafaq , Md. Junayed Hasan , Furqan Asghar , Ali Kashif Bashir and Tania Dottorini National Subsea Centre, School of Computing, Robert Gordon University, 3 International Ave, Dyce, Aberdeen, AB21 OBH, UK Wolfson School of MEME, Loughborough University, Loughborough, LE11 3TU, UK Department of Energy Systems Engineering, University of Agriculture, Faisalabad, 38000, Pakistan Department of Computing and Mathematics, Manchester Metropolitan University, Manchester, M15 6BY, UK School of Veterinary Medicine and Sciences, University of Nottingham, Sutton Bonington Campus, Loughborough, LE12 5RD, UK

ARTICLE INFO

Keywords:

Precision agriculture
Deep Learning (DL)
Artificial Intelligence (AI)
Behaviour recognition
Precision Livestock Farming

Abstract

Livestock health and welfare monitoring is a tedious and labour-intensive task previously performed manually by humans. However, with recent technological advancements, the livestock industry has adopted the latest AI and computer vision-based techniques empowered by deep learning (DL) models that, at the core, act as decision-making tools. These models have previously been used to address several issues, including individual animal identification, tracking animal movement, body part recognition, and species classification. However, over the past decade, there has been a growing interest in using these models to examine the relationship between livestock behaviour and associated health problems. Several DL-based methodologies have been developed for livestock behaviour recognition, necessitating surveying and synthesising state-of-the-art. Previously, review studies were conducted in a very generic manner and did not focus on a specific problem, such as behaviour recognition. To the best of our knowledge, there is currently no review study that focuses on the use of DL specifically for livestock behaviour recognition. As a result, this systematic literature review (SLR) is being carried out. The review was performed by initially searching several popular electronic databases, resulting in 1101 publications. Further assessed through the defined selection criteria, 126 publications were shortlisted. These publications were filtered using quality criteria that resulted in the selection of 44 high-quality primary studies, which were analysed to extract the data to answer the defined research questions. According to the results, DL solved 13 behaviour recognition problems involving 44 different behaviour classes. 23 DL models and 24 networks were employed, with CNN, Faster R-CNN, YOLOv5, and YOLOv4 being the most common models, and VGG16, CSPDarknet53, GoogLeNet, ResNet101, and ResNet50 being the most popular networks. Ten different matrices were utilised for performance evaluation, with precision and accuracy being the most commonly used. Occlusion and adhesion, data imbalance, and the complex livestock environment were the most prominent challenges reported by the primary studies. Finally, potential solutions and research directions were discussed in this SLR study to aid in developing autonomous livestock behaviour recognition systems.

1. Introduction

The livestock farming sector is crucial in the global food system, significantly contributing to food security, agriculture development, and poverty reduction. According to the Food and Agriculture Organization (FAO) of the United Nations (UN), livestock contributes of the global agricultural output, with 1.3 billion people depending on livestock for their livelihood, food, and nutrition security (Food and Agriculture Organization of the United Nations 2022). Livestock farming involves managing and breeding domestic animals, such as cattle, pigs, and poultry, to produce meat, eggs, milk, and other dairy products for human consumption. With population growth and changing dietary patterns, the demand for livestock farming has surged in
recent decades, making it one of the fastest-growing agricultural sub-sectors. However, this rapid growth comes at a cost. It is predicted that if the growth of the livestock sector is not managed efficaciously, environmental sustainability and public health issues will become more complicated (Nowodziński, 2021). Therefore, it is critical to adopt sustainable livestock farming practices to ensure that future generations can enjoy the benefits of this sector.
In livestock farming, studying animal behaviour is crucial in understanding how animals interpret and respond to their environment. This enables us to use effective techniques to improve their health and welfare on farms. Although animal behaviour research has been conducted for many years, it is only recently that applying animal behaviour to production, health, and welfare has become more popular (Orihuela, 2021). Identifying certain animal behaviours helps detect any potential underlying health problems. For instance, an abnormal gait pattern in cows might indicate lameness (Flower et al., 2005), (Flower et al., 2007). Moreover, the amount of time spent in feeding, feeding frequency, and amount of food ingested can help
Table 1
Nomenclature
Nomenclature
BiFPN Bi-directional Feature Pyramid Network
Bi-LSTM Bi-directional Long Short-Term Memory
C3D Convolutional 3D
ConvLSTM Convolutional Long Short-Term Memory
CNN Convolutional Neural Network
LSTM Long Short-Term Memory
CSPDarknet Cross Stage Partial network based Darknet
DHRN Deep High Resolution Network
DNN Deep Neural Network
DRNet Dense Residual Network
DRN-YOLO DenseResNet-You Only Look Once
ESCMobileNet Extremely Separated ConvolutionMobileNet
R-CNN Region-based Convolutional Neural Network
FCN Fully Convolutional Network
FD-CNN Frame Differences-Convolutional Neural Network
FPN Feature Pyramid Network
ResNet Residual neural Network
R-FCN Region-based Fully Convolutional Network
RNN Recurrent Neural Network
RPN Region Proposal Network
SAE Sparse Autoencoder
SSD Single-shot detector
STAGCN Spatiotemporal and Adaptive Graph Convolutional Network
TSN Temporal Segment Network
VGG Visual Geometry Group
YOLO You Only Look Once
ZFNet Zeiler & Fergus Net
mAP mean Average Precision
AP Average Precision
IoU Intersection over Union
MCC Matthew’s Correlation Coefficient
MPA Mean Pixel Accuracy
differentiate between lame cows and non-lame cows (Thorup et al., 2016). Health disorders like ketosis and mastitis can decrease feed intake and milk production (Bareille et al., 2003). The nursing behaviour of sows is closely linked to piglet death caused by starvation (Shankar et al., 2009). Research has shown that dangerous body movements of sows can increase the mortality rate of piglets (Chidgey et al., 2015). Early recognition of animal behaviours is crucial for optimising animal production processes, improving animal health and welfare, increasing the quality and productivity of animal products, and preventing losses caused by diseases (Nasirahmadi et al., 2017).
In traditional livestock farms, experienced workers, farmers, or veterinary behaviourists rely on their knowledge and skills to recognise animal behaviour and its association with underlying health conditions. However, as the environment of livestock farms is quite complex, where different
species of animals are exploited in large groups housed in intensive production systems, it is unrealistic to observe every activity of animals in real time. With the advent of Industry 4.0 technologies in industrial automation, creating systems that can perform these tasks more efficiently and autonomously has become more practical. Advanced technologies such as Artificial Intelligence (AI) have reshaped industrial livestock farming and given rise to the fields of “Smart farming,” “Precision Agriculture,” and “Precision Livestock Farming” (Gonçalves et al., 2022). These fields heavily utilise AI to analyse data and provide new tools for monitoring and managing animal behaviour and health. These new technologies have the potential to revolutionise traditional livestock farming, enabling farmers to make data-driven decisions that improve animal health, welfare, and productivity. Precision livestock farming can help optimise the production process, reduce costs, and minimise environmental impacts by providing real-time monitoring and analysis of animal behaviour (Garcia et al., 2020). Also, integrating advanced technologies in livestock farming can transform the industry, leading to more sustainable and efficient practices that benefit both animals and farmers. Finally, these technologies can help the fight against infectious and endemic diseases, one of the major challenges in contemporary livestock farming, with repercussions on both animals (e.g. mastitis) and consumers’ health (Grace, 2019).
In precision livestock farming, a subfield of AI known as Deep Learning (DL) has been widely used to address various issues, including individual animal identification (Qiao et al., 2020), body part recognition (Hu et al., 2020), face recognition (Yao et al., 2019), (Xu et al., 2022), health monitoring (Atkinson et al., 2020), animal tracking and counting (Laradji et al., 2020), race classification (Santoni et al. 2015), species classification (Tabak et al., 2019), and behaviour recognition.
DL has been preferred over other shallow and machine learning methods since it employs multi-layered deep neural networks that can learn the representations from raw data autonomously, allowing it to uncover detailed patterns and features. It is considered best for handling large and highdimensional datasets, particularly for complex tasks such as image classification, object detection, and spatiotemporal analysis. Despite the many applications of DL, there still needs to be more understanding about using different DL models to solve specific problems. As a result, the challenges encountered in designing, developing, and deploying these models still need to be fully understood.
Recent review studies on precision livestock farming have explored sustainability, environmental, and socioeconomic aspects (Lovarelli et al. 2020), as well as machine learning applications for dairy farm management (Slob et al., 2021), and deep learning applications for precision cattle farming (Mahmud et al., 2021). While these studies provide valuable insights into the use of DL in livestock farming, they are general and need more focus on the use of DL to solve a specific problem such as behaviour recognition. The effectiveness of DL models and networks
can vary significantly depending on the problem they are designed to solve. For example, a DL model created for object classification in images may perform poorly in a complex spatiotemporal task like behaviour recognition. Therefore, it is essential to research to establish the state of DL concerning specific problems in precision livestock farming. By doing so, we can better understand how to design, develop, and deploy DL models effectively, ultimately leading to better outcomes for livestock farmers and their animals. Therefore, this review aims to examine the recent trends and advancements in the use of DL for a specific problem of behaviour recognition in precision livestock farming. This review will provide a comprehensive overview of the various types of behaviour recognition problems that have been addressed using DL. In addition, it will summarise the different approaches employed for data collection, including the quantity, quality, and type of data used in these studies. Furthermore, it will discuss the different types of DL models and networks developed for behaviour recognition and how they are applied to specific problems, the performance analysis of DL models and networks, challenges reported in the literature, and potential solutions to overcome these challenges.
The details of this study are presented in the following sections. Section 2 defines the methodology adopted to conduct this review, including the review protocol, research questions, search strategy, and selection criteria for the primary studies. Section 3 consists of the results with answers to the research questions. Section 4 presents a general discussion and observations. Finally, Section 5 presents the conclusion.

2. Methodology

2.1. Review Protocol

This study follows the protocols for conducting a Systematic Literature Review (SLR) provided by (Kitchenham and Charters, 2007), entitled “Guidelines for Performing Systematic Literature Reviews in Software Engineering”. Figure 1 outlines the steps involved in the process of SLR.
The SLR process was divided into three steps. The first step was planning the review, which involved determining the need for the review, developing research questions, and establishing search strategies. Search strategies focus on selecting relevant databases, compiling appropriate search strings, and defining selection criteria.
The second step was executing the review, which involved selecting primary studies and extracting and synthesising data. Search strings were used to search the selected databases’ titles, abstracts, and keyword fields. The resulting publications were analysed based on the selection criteria, and those that met the criteria were shortlisted. A further filtering process using quality assessment criteria was applied to ensure that only high-quality publications were selected as primary studies. The data required to answer the research questions were extracted and synthesised during this step.
Figure 1: The steps involved in the process of SLR.
The third and final step was reporting the findings. The answers to research questions and the results were presented as supporting figures and tables.

2.2. Research Questions

The following six research questions (RQs) were formulated for this study. These questions mainly focused on exploring, collecting, and presenting recent advances in applying DL-based methodologies primarily for behaviour recognition in precision livestock farming, also called livestock behaviour recognition.
RQ.1: What is the significance of behaviour recognition in livestock, and what types of problems are solved using DL for behaviour recognition?
RQ.2: What approaches are used for data collection, and what is the type, quantity, and quality of data?
RQ.3: What DL models and networks are used for livestock behaviour recognition?
RQ.4: What performance metrics and methodologies are used to assess the outcomes of DL models?
RQ.5: Which DL models and networks were most effective for a particular problem?
RQ.6: What are the challenges associated with the application of DL for livestock behaviour recognition?

2.3. Databases and search strategy

The following seven most popular databases were selected for this study: Google Scholar, ScienceDirect, IEEE Xplore, Scopus, Web of Science, SpringerLink, and Wiley. The initial search started by combining the keywords as search strings. At the start, the keywords: “behaviour recognition” AND “deep learning” were used to find the related studies. The results contained studies related to behaviour recognition, including humans. The search string was modified to narrow down the studies only associated with the animals by adding keywords such as “livestock”, “herd”, and “animal”.
Furthermore, synonymous terms like “action” and “activity” related to the keyword “behaviour”, “artificial intelligence” related to “deep learning”, “analysis”, “detection”, and “classification” related to “recognition” were found in the literature and added to improve the search strings that resulted in the following general search string: (“action” “activity” OR “behaviour”) AND (“artificial Intelligence” OR “deep learning”) AND (“animal” OR “herd” OR “livestock”) AND (“analysis” OR “classification” OR “detection” OR “recognition”).
Subsequently, the resulting general string had to be modified based on each database. ScienceDirect only allows a maximum of eight Boolean characters, and Google Scholar has a specific limit for the maximum number of characters used in a search. Thus, the keywords were adjusted accordingly. The search strings were used in each database’s abstract, article title, and keywords fields. However, Wiley and Springer Link do not allow searching in the abstract, article title, and keywords fields. Thus, the search string was used to find keywords anywhere in the publications. Because of this, a high number of unrelated publications were initially selected (as shown in Figure 2), which were then filtered further using selection and quality criteria. Overall, the initial search through the chosen databases yielded 1101 publications. The search strings used for searching publications for each of the selected databases are given below:
Google Scholar: [(“behaviour recognition” AND “livestock”)] AND [(“deep learning” OR “artificial intelligence”) AND (“behaviour detection” OR “behaviour recognition” OR “livestock health”)]
ScienceDirect: (“deep learning” OR “artificial intelligence”) AND (“livestock” OR “herd”) AND (“behaviour” OR “action”) AND (“recognition” OR “analysis” OR “classification”)
IEEE Xplore: (“deep learning” OR “artificial intelligence”) AND (“livestock” OR “herd” OR cattle) AND (“behaviour” OR “action” OR health) AND (“recognition” OR “analysis” OR “detection” OR “classification”)
Scopus: TITLE-ABS-KEY ((“deep learning” OR “artificial intelligence”) AND (“livestock” OR “herd” OR cattle) AND (“behaviour” OR “action” OR health) AND (“recognition” OR “analysis” OR “detection”
OR “classification”)) AND (LIMIT-TO (DOCTYPE, “ar”))
Web of Science: “deep learning” OR “artificial intelligence”) AND (“livestock” OR “herd” OR cattle ) AND (“behaviour” OR “action” OR health) AND (“recognition” OR “analysis” OR “detection” OR “classification”)) OR “deep learning” OR “artificial intelligence”) AND (“livestock” OR “herd” OR cattle ) AND (“behaviour” OR “action” OR health) AND (“recognition” OR “analysis” OR “detection” OR “classification”)) OR AK=((“deep learning” OR “artificial intelligence”) AND (“livestock” OR “herd” OR cattle ) AND (“behaviour” OR “action” OR health) AND (“recognition” OR “analysis” OR “detection” OR “classification”))
SpringerLink, Wiley: (“deep learning” OR “artificial intelligence”) AND (“livestock” OR “herd” OR cattle) AND (“behaviour” OR “action” OR health) AND (“recognition” OR “analysis” OR “detection” OR “classification”) (anywhere)

2.4. Selection Criteria

The initial search resulted in the collection of many irrelevant publications. Therefore, inclusion and exclusion criteria were defined to select publications containing information related to the research questions. Each publication was judged against the selection criteria. A publication was selected if all the exclusion criteria were false and the inclusion criteria were true (Kitchenham and Charters, 2007). Consensus against each publication was developed using the Cohen Kappa statistic (Cohen, 1968). A total of 126 publications were selected out of 1101 initial publications. The exclusion criteria used in this study are given below:
  1. The publication is not related to deep learning for livestock behaviour recognition.
  2. The publication is either duplicated or retrieved from another database.
  3. The publication is not written in English, and the full text of the study is not available.
  4. The publication is a book chapter, conference abstracts, data articles, mini-reviews, short communications, thesis, review, or survey article.
  5. The publication is a pre-print or not peer-reviewed.
  6. The publication was published before 2012.
The inclusion criteria used in this study are given below:
  1. The publication is related to the application of DLbased methodologies for behaviour recognition in livestock.
  2. The publication is a primary study.

2.5. Collecting and filtering publications

The 126 publications selected after the selection criteria were further accessed to ensure the selection of high-quality primary studies. For this, quality criteria based on assessment questions were chosen from the study (Kitchenham
Figure 2: The process for the selection of primary studies.
et al. 2009). Each publication was given a score of 1 (yes), 0 (no), or ( 0.5 ) (partial) against each question of the quality criteria. The total score for each publication was calculated, and publication scoring less than three was excluded. A total of 44 publications were selected as primary studies as a result of the application of quality criteria. The assessment questions of the quality criteria used in this study were:
  1. Are the aims & objectives of the study clearly stated?
  2. Are the study’s scope, methodology, and experimental design clearly defined?
  3. Is the research process and methodology documented appropriately?
  4. Are all study questions answered?
  5. Are negative findings presented?
  6. Do the conclusions correspond to the study’s goals and purpose?
    Figure 2. shows the overall process for the selection of primary studies.

2.6. Data extraction and synthesis

The 44 selected primary studies were gathered and thoroughly researched to extract the relevant data related to each research question. Table 2 presents the details of the selected primary studies. A spreadsheet was used to list all the primary studies in rows against each research question in columns. Data were extracted and summarised. The extracted data focused on answering the research questions, including objectives, type of behaviour recognition problems, global research trend for livestock behaviour recognition,
ethogram defining each behaviour, data collection and the type, quantity, and quality of data, DL models and networks, performance evaluation metrics, the details regarding the year and journal of publications, and challenges associated with the application of DL for livestock behaviour recognition. Finally, the extracted data were synthesised to answer each research question. The results of this SLR study are presented in the next section.

3. Results

3.1. Significance of behaviour recognition in livestock and types of problems (RQ. 1)

In recent years the task of action recognition has gained significant attention in computer vision. So far, the study of action recognition has been limited to humans (Kong and Fu, 2022). While notable progress has been made, the action recognition task is still a complex problem. With technological advancements and AI paving the way to almost every field of science, the concept of action recognition has been recently adopted to study animal behaviours. The study of animal behaviours helps to understand how a particular animal behaves under diverse circumstances. Researchers have discovered an important link between changes in animal behaviour and their health and welfare. Keeping track of animal behaviour has become an essential element of health monitoring in intensive farming systems. Although there is a great deal of interest in using action recognition to differentiate animal behaviour, it is crucial to understand the difference between an action and behaviour.
Table 2
Details of the selected primary studies.
No. Source Article Title Reference
1 Google Scholar Mounting behaviour recognition for pigs based on deep learning Ii et al. 2019
2 Pig mounting behaviour recognition based on video spatial-temporal features Tallg er ai. 2021
3 Automatic recognition of sow nursing behaviour using deep learning-based segmentation and spatial and temporal features Yang er al. 2018
4 Using an EfficientNet-LSTM for the recognition of single Cow’s motion behaviours in a complicated environment “illetal. 2020
5 Automatic recognition of feeding and foraging behaviour in pigs using deep learning Aiameer et al. 2020b
6 An automatic recognition framework for sow daily behaviours based on motion and image analyses Yang er ai. 2020
7 Recognition of feeding behaviour of pigs and determination of feeding time of each pig by a video-based deep learning method Cheiletai. 20200
8 Deep learning based classification of sheep behaviour from accelerometer data with imbalance Tumer er al. 2022
9 A computer vision-based method for spatial-temporal action recognition of tail-biting behaviour in group-housed pigs Liu er al. 2020
10 Automatic Sheep Behaviour Analysis Using Mask R-CNN X́uetal. 2021
11 Automated detection and analysis of piglet suckling behaviour using high-accuracy amodal instance segmentation Gall EL ai. 2022a
12 Application of deep learning in sheep behaviors recognition and influence analysis of training data characteristics on the recognition effect Chengerai. 2022
13 Automatic recognition of lactating sow postures by refined two-stream RGB-D faster R-CNN ZIII El al., 2020
14 Identification and Analysis of Emergency Behavior of Cage-Reared Laying Ducks Based on YoloV5 Gu et al. 2022
15 Reserve sow pose recognition based on improved YOLOv4 Luerai. 2022
16 Posture Detection of Individual Pigs Based on Lightweight Convolution Neural Networks and Efficient Channel-Wise Attention Luo et ai., 2021
17 Science Direct Cattle behavior recognition based on feature fusion under a dual attention mechanism Shang et al. 2022
18 Horse foraging behavior detection using sound recognition techniques and artificial intelligence Numes et al. 2021
19 Deep learning-based hierarchical cattle behavior recognition with spatio-temporal information Fuentes er ai. 2020)
20 Activity detection of suckling piglets based on motion area analysis using frame differences in combination with convolution neural network Ding et ai., 2022 ,
21 IEEE Xplore Automatic Detection of Mounting Behavior in Cattle using Semantic Segmentation and Classification Noe et al. 2021
22 A Deep Learning-based solution to Cattle Region Extraction for Lameness Detection Nove el al.. 2022
23 Video-based cattle identification and action recognition Nguyenter ai. 2021)
24 Data Augmentation for Inertial Sensor Data in CNNs for Cattle Behavior Classification Liera.. 2021
25 An AI-based System for Monitoring Behavior and Growth of Pigs Chell etal. 2020b
26 Toward Building a Data-Driven System For Detecting Mounting Actions of Black Beef Cattle Nawano et al. 2021
27 A comparison of autoencoder and statistical features for cattle behaviour classification Ranman ecai. 2010
28 Lameness Detection in Cows Using Hierarchical Deep Learning and Synchrosqueezed Wavelet Transform Jarciii etal. 2021
29 On the Benefits of Deep Convolutional Neural Networks on Animal Activity Recognition Docajet ai. 2020
30 Individual identification model and method for estimating social rank among herd of dairy cows using YOLOv5 Ucnino and Onwada, 2021)
31 Scopus Spatiotemporal graph convolutional network for automated detection and analysis of social behaviours among pre-weaning piglets Gan et al. 2022b)
32 Automatic Detection Method of Dairy Cow Feeding Behaviour Based on YOLO Improved Model and Edge Computing Oneral. 2022
33 Basic motion behavior recognition of single dairy cow based on improved Rexnet 3D network Nitaet ai. 2022
34 Identification and classification for sheep foraging behavior based on acoustic signal and deep learning Wangerai.. 2021)
35 Using a CNN-LSTM for basic behaviors detection of a single dairy cow in a complex environment Wheral 2021
36 Image analysis for individual identification and feeding behaviour monitoring of dairy cows based on Convolutional Neural Networks (CNN) Aciour et ai. 2020
37 Deep learning and machine vision approaches for posture detection of individual pigs Nasirahmaui et al., 2019
38 Web of Science C3D-ConvLSTM based cow behaviour classification using video data for precision livestock farming Oiao et al. 2022
39 Automatic behavior recognition of group-housed goats using deep learning Jiang er ai. 2020
40 Deep learning-based cattle behaviour classification using joint time-frequency data representation Tiosseciminourimet al. 2021
41 Automated recognition of postures and drinking behaviour for the detection of compromised health in pigs Alameer el al. 2020a
42 Pecking activity detection in group-housed turkeys using acoustic data and a deep learning technique Nasirahmadi et ai. 2020
43 Computer Vision Applied to Detect Lethargy through Animal Motion Monitoring: A Trial on African Swine Fever in Wild Boar Femánucz-Cañón et ai., 2020,
44 Automatic recognition of lactating sow postures from depth images by deep learning detector Eneng et al., 2010,
An action is defined as the act of doing something. On the contrary, a behaviour is a collection of diverse actions, sometimes repeated ones. In other words, while an action might be instantaneous, a behaviour is a set of actions that occur over a continuous interval. As a result of the addition of a temporal dimension, recognising behaviours becomes a considerably more challenging problem than simply recognising actions.
Although the DL approaches used in human action recognition can be tailored and utilized for animal behaviour analysis, there are several important differences and concerns. For example, animal behaviour data is often multi-modal. It can contain data in the form of videos, images, and signals from different times of the day under different weather conditions. This necessitates specialized preprocessing and feature extraction approaches designed specifically for animal behaviour analysis. Furthermore, animal behaviour has traits that are specific to a certain specie requiring the creation of specialised DL models that reflect these distinct patterns. The ethical constraints and restrictions in collecting the data for animals limit the availability of sufficient labelled data for training affecting the performance and generalisation of DL models.
In 44 primary studies, researchers reported 13 behaviour recognition problems. These problems were related to the behaviours such as Feeding, Posture, Motion, Nursing, Mounting, Drinking, Pecking, Tail-biting, Foraging, Social, Emergency, Lameness, and Suckling. Each of these behaviours has a significant connection with animal health and welfare. Feeding behaviour has been found to assess
impaired health and predict diseases like ketosis and mastitis. Periodic evaluation of feeding behaviour helps monitor livestock’s health and production status at the individual and farm levels. Recognising abnormal posture in animals on time can assist in limiting disease transmission, reducing the usage of veterinary antibiotics, and increasing the economic advantages of commercial farms. Motion and activity-related behaviours are critical predictors of the physical health status of animals and farming conditions. Drinking behaviour is linked with milk production, control of body temperature, and adequate feed consumption. Mounting behaviour is helpful in the detection of oestrous periods, and it can help improve animal reproductive performance. Nursing behaviour is closely related to starvation and influences milk output and animal growth. It can also indicate diseases or injuries related to the udder. Tail biting is one of the most harmful behaviours affecting animal welfare and production. Early lameness identification has increased animal welfare, resulting in economic and health benefits. Social behaviours are crucial indicators of animal growth and health. Emergency behaviours such as trampling in ducks are linked with a high rate of injuries. Suckling behaviour might reflect an animal’s physical health. Animals with higher activity levels have been observed to have a lower mortality rate. Furthermore, the time allotted for suckling or udder massage might indicate hunger or feed intake and can be used to anticipate animal growth.
Each of these behaviour recognition problems is divided into subsequent classes. A total of 44 classes associated with these problems were reported in the primary studies. Table
Table 3
Type of behaviour recognition problems and associated behaviour classes.
Type of problem Behaviour classes
Feeding behaviour recognition Eating, Grazing, Chewing, Ruminating, Ruminating standing, Ruminating lying, Bite
Posture recognition Resting, Lying, Lying down, Lying on the belly, Lying on the side, Lateral lying, Sternal lying, Standing, Standing up, Sitting, Sternal recumbency, Ventral recumbency, Lateral recumbency, Sleeping
Motion recognition Walking, Moving, Moving tail, Moving head, Inactive, Lethargy
Nursing behaviour recognition Nursing interaction
Mounting behaviour recognition Mounting interaction
Drinking behaviour recognition Drinking interaction
Pecking activity recognition Peck or Non-peck
Tail-biting behaviour recognition Tail-biter (biter), Tail-bitten (victim)
Foraging behaviour recognition Non-nutritive / Non-feeding visits
Social behaviour recognition Searching, Social licking, Grooming, Exploring, Social nosing, Fighting, Playing
Emergency behaviour recognition Neck extension, Trample, Spreading wings
Lameness recognition Lameness
Suckling behaviour recognition Suckling or Non-suckling
3 presents the type of behaviour recognition problems and associated behaviour classes reported in the primary studies.
The first and most crucial step to collecting data and properly distinguishing between distinct classes is to define each class. It is critical to establish the limits of a particular behaviour class. Ethologists organise these behavioural classes into what is known as an ethogram. In this SLR study, an ethogram summarising the definition of each behaviour class reported in the primary studies is presented in Table 4. Due to the lack of clear criteria for defining a particular class’s boundaries, several definitions are connected with each behaviour class. The criteria employed by the researchers were based on their observations, practical experiences, and the surrounding farm environment. A deep learning model developed with one definition for the same class might fail to perform in an environment with a different definition. It is essential, and so far, an unaddressed research question, to establish a specified ethogram detailing behaviour classes expressly for developing deep learning models for livestock behaviour recognition, which will also facilitate the performance comparison of these models on equal merits.

3.1.1. Distribution of primary studies and global trend for livestock behaviour recognition

Figure 3 shows the distribution of the selected primary studies by year and journal of publication. This SLR study focused on articles published between 2012 and 2022. From 2012 to 2015, no article explicitly focused on applying deep learning to livestock behaviour recognition. Since 2016, there has been an increasing trend. This increase was because these were the years when the DL learning-based approaches started to achieve more prominent results on problems such as image and video classifications, object detection, target tracking, and regression. The works before 2016 mostly concentrated on manual feature selection and extraction methodologies that lack scalability.
The highest number of articles were published in 2022. A total of 12 journals were significant in publishing related articles, with 04 publishers. The journal with the most published articles has been Computer and Electronics in Agriculture, followed by IEEE Conference Proceedings and Biosystems Engineering.
A Sankey chart summarising the global research trend is shown in Figure 4. The chart is organised into five sections, including information on the countries, livestock types, behaviour levels, and the type of behaviour recognition problem reported in primary studies. China was found to be the research leader in the application of DL for livestock behaviour recognition, with , followed by Australia ( ), Japan ( ), the United Kingdom (UK) (6.25%), the United States of America (USA) (5.11%), and South Korea (4.55%), making up the top five out of a total of 16 countries. The research was primarily focused on seven different types of livestock, with cattle receiving the most attention ( ), followed by pigs ( ), sheep ( ), goats ( ), horses ( ), turkey ( ), and ducks ( ). Certain countries have focused on a specific type of livestock, such as China focused on all reported livestock types except turkey and horses. Australia focused primarily on cattle and sheep. Japan and South Korea only on cattle. The UK on pigs and turkey, and the USA on pigs and horses. No specific correlation between animal production and the increased amount of research was found. However, as cattle, pigs, sheep, and goats are consumed mostly as sources of food and are in the majority at livestock farms, the research on these animals was more prominent than others.
Furthermore, there are different levels at which livestock behaviours can be categorised. This SLR study has categorised this into primary and secondary behaviour levels. The primary behaviour level is divided into two categories: individual and group. The individual level refers to behaviours solely related to a single animal, for example, Motion, Posture, Pecking, Emergency, and Lameness. However, the group level refers to behaviours that include multiple animals, for example, Mounting, Social, Suckling, Nursing, and Tail-biting. Some behaviours can be at individual or group levels, for example, Feeding, Drinking, and Foraging.
Table 4
Ethogram outlining behaviour classes found in the primary studies.
Behaviour classes Description Reference
Feeding /Eating Standing with the head in the feed tray OR Lowering head (Fuentes et al
OR Keeping head in the food area and performing eating movement OR Head inside a food trough OR Keeping head in the food area OR Biting and chewing on its food, and rooting with snout in the feeder OR Head is downward and the food is available in the feeder OR When the bounding box of any pig’s head overlaps the region of crib 2020), (Yang et al. 2020), (Alameer et al. 2020b), (Chen et al. 2020a),(Achour et al., 2020), (Chen et al. 2020b),(Qiao et al.,
2022), (Yu et al., 2022)
Chewing Ruminating Chewing, and head raised (Rahman et ai., 2016)
2020),(Wu et al., 2021)
Ruminating standing Ruminating, and standing (Rahman et al., 2016)
Ruminating lying, Ruminating, and lying or sitting (Rahman et al., 2016)
Resting Sitting on the floor OR Resting, and lying OR Resting, and standing with head up (Fuentes et al.
2020),(Rahman et al., 2016)
Lying Abdomen clings to the ground without other strenuous movement OR The posture after kneeling (Wu et al., 2021),(Ma et al., 2022)
Lying down Action from standing to lying down (Fuentes et al., 2020)
Lying on the belly Lying with limbs are folded under the body (Nasırahmadı et al., 2019)
Lying on the side Lie in a fully recumbent position with limbs extended
(Nasırahmadi et al., 2019)
Lateral lying The side of the trunk of the pig is in contact with the floor (Alameer et al., 2020a)
Sternal lying The chest / sternum of the pig is in contact with the floor (Alameer et al., 2020a)
Standing Upright body position on extended legs with hooves only in (Zheng et al.,
2018),(Lhu et al.,
contact with the floor OR Legs are straight and supporting the 2020), (Fuentes et al.,
standing state OR Pig has feet (and possibly snout) in contact 2020), (Achour et al.
with the pen floor OR Legs remain vertical without other 2020), (Alameer et al.
strenuous movement OR The position of body and four legs 2020a),(Wu et al.,
is unchanged OR The posture before kneeling on the ground 2021),(Qiao et al.
Standing up Action from lying down to standing (Fuentes et ai., 2020)
Sitting (Zheng et al., 2018), (Zhu et al. 2020), (Alameer et al., 2020a), (Lu et al., 2022)
Partly erected on stretched front legs with caudal end of body contacting the floor OR Only the feet of the front legs and the posterior portion/bottom of the pig body are in contact with the floor
Sternal recumbency Lying on abdomen/sternum with front and hind legs folded under the body; udder is totally obscured, (Zheng et al., 2018), (Zhu et al., 2020)
Ventral recumbency Lying on abdomen/sternum with front legs folded under the (Zheng et al.
body and visible hind legs (right side, left side); udder is 2018), (Zhu et al.,
partially obscured 2020), (Lu et al., 2022)
Lateral recumbency Lying on either side with all four legs visible (right side, left (Zheng et al., 2018),
side); the udder is totally visible OR Side lying flat on the (Zhu et al., 2020), (Lu
ground, one shoulder on the ground, with the limbs extended
Sleeping Sitting on the floor and head on the ground (Fuentes et al., 2020)
Walking Moving in a standing position OR Head up and walking OR (Fuentes et al.
Legs move repeatedly and cow position changes greatly OR 2020),(Wu et al.
Movement for more than 3 sec 2021), (Qiao et al.
(Yang et ai., 2020)
Moving Moving without doing anything else
Moving tail Tail movements (Fuentes et ai., 2020)
Moving head Head movements (Fuentes et al., 2020)
Inactive Sitting, lying, kneeling, or standing without performing any other activity (Yang et al., 2020)
Lethargy (Fernández-Carrión et al., 2020)
Low values in daily motion matched with high temperature peaks
Nursing interaction At least half of the piglets are actively manipulating the udder when the sow is lying laterally, and the period of activity (Yang et al., 2018), (Yang et al., 2020)
Mounting interaction exceeds 60 sec (Fuentes et al.
Cow bends over another cow usually when either cow is in estrus 2021),(Kawano et al., 2021),(Luo et al., 2021)
Table 4: (Continue)
Behaviour classes Description Reference
Drinking interaction Touching the drinking nipple with snout OR The pig snout is in contact with a nipple drinker, OR Stand by the water tank with its mouth in the tank (Yang et al., 2020), (Alameer et al.
2020a),(Wu et al.
Peck or Non-peck When birds struck the metallic ball (pecking object) with their beak (Nasirahmadi et al. 2020)
Tail-biter Biting a penmate’s tail, with a sudden reaction of the penmate (Turner et al., 2022)
Tail-bitten Penmate is biting the subject’s tail and elicits a reaction (Turner et al., 2022)
Non-nutritive / Non- When a pig enters the feeding area with two feet without ever (Alameer et al.
feeding visits 2020b),(Yu et al.
consuming any food OR When the cow is in the feeding zone, lifts her head away from the feed area to chew, and the next action is either to continue feeding or to leave the feeding zone
Searching Head down and walking (Rahman et al. 2016)
Social licking Licking another’s body with the tongue (Fuentes et al., 2020)
Grooming (Fuentes et al.
Licking own body with the tongue OR Head is turned towards abdomen groom the body with the tongue
2022)
Exploring Head is in close proximity of or in contact with the ground (Oiao et al., 2022)
Social nosing Piglet touching or sniffing any part of the head or nose of another piglet
Fighting Two or more individuals fighting OR Forceful fighting, pushing with the head, or violently biting littermates (Fuentes et al.
2020), (Gan et al.
Playing Nudging or pushing, playing, and fighting (Gan et al. 2022b)
Neck extension The laying duck stretches its neck out of the cage from the back of the cage (Gu et al., 2022)
Trample At least one of the feet of one duck is trampling on the body of the other duck (Gu et al., 2022)
Spreading wings Duck wings spread from a certain angle to fully unfolded (Gu et al., 2022)
Lameness Estimate gait frequency, duration of gait and non-gait periods, and the lameness OR Speed of walking, arching their backs and drop their heads during walking (Jarchı et al., 2021),(Noe et al., 2022)
suckling Either mouth on teat or nose contact to udder with vertical and rhythmic head movements, consisting of udder pre-massage, milk intake/outflow, and post-massage OR Cow feeding a calf (Gan et al., 2022a), (Fuentes et al. 2020)
Figure 3: The distribution of the selected primary studies by year and journal of publication.
Figure 4: Global research trend for livestock behaviour recognition.
On the contrary, the secondary behaviour level is divided into two categories: interactive and non-interactive. The interactive level refers to behaviour where single or multiple animals interact with one another or an object from the surrounding environment, for example, Pecking, Mounting, Social, Suckling, Nursing, Tail-biting, Feeding, Drinking, and Foraging. However, the non-interactive level refers to behaviours that do not involve animals engaging with one another, for example, Motion, Posture, Emergency, and Lameness. The researchers focused more on the individual than group ( ) behaviours at the primary level and more on interactive (57.95%) than non-interactive ( ) behaviours at the secondary level. The majority of studies focused on individual than group behaviours. This correlates with the fact that in computer vision, individuallevel object detection is easier than grouped-level object detection because of the challenges related to spatial localization, occlusion and adhesion. Group behaviours were found to be complex and hard to recognize. Similarly, the individual non-interactive behaviours were studied more than the group interactive (Figure 4 ).
Feeding behaviour recognition was the most prevalent of the 13 types of behaviour recognition problems reported in primary studies, with , followed by Posture and Motion (18.18%), Drinking (10.8%), Mounting (7.39%), Social (5.11%), Foraging (4.55%), Suckling (3.41%), Nursing ( ), Lameness and Tail-biting ( ), Pecking ( ), and Emergency ( ).
Feeding behaviour was the most focused behaviour among the others since feeding was found to be directly
linked with nutritional intake and the overall well-being of the animals. Furthermore, as feeding is individual behaviour, the majority of the studies focused on recognizing it than complex group behaviours such as mounting, social, and suckling.

3.2. Data collection and the type, quantity, and quality of data (RQ. 2)

Data is one of the most crucial elements on which the performance of a DL model is highly dependent. DL models are considered to be data-hungry. Although the DL community agrees that the more data there is, the more accurate the model will be, it is still being determined how much data is acceptable and what the limit should be. These are open research questions. Most of the time, researchers use their expertise and experience to define the parameters of a good dataset. Data scientists and AI developers dedicate about of their time to analysing, pre-processing, and structuring data. The remainder is spent on model selection, training, testing, and implementation procedures. A similar pattern was found in the 44 primary studies.
There were particular reasons for choosing a specific data type. The choice of data either signals or images was solely based on the approach that was adopted by the researchers. The visionless or contact-based approaches used signals data as the source of the data were physical sensors. However, the vision-based or contactless approaches used images or videos as the source of data were the camera. Mostly, the signals were used for the behaviours such as Motion, Posture, and Lameness where recording the
motion data was a crucial parameter. However, no tangible explanations were found regarding the data’s quality and quantity. A different number of samples, frequency ranges, image sizes, and FPS were used by different studies even for the recognition of the same type of behaviour. Regardless of this, in this SLR study, a summary of data collection instruments, data type, data quantity, and data quality, along with the type of behaviour recognition problems solved, the reported DL models and networks, their performance, and the number of classes used are synthesised and presented in Table 5 and 6
Generally, the approaches used in primary studies can be classified into two categories: visionless or contactbased and vision-based or contactless. In the contact-based approach, the studies reported using body-mounted sensors such as inertial measurement units (IMUs). These sensors directly contacted the body of the animals and were reported to affect their health and welfare over time. In addition, these sensors were prone to read false readings, such as noise, due to the surrounding environment. For this approach, the data was recorded generally as accelerometer signals, with the lowest samples at 21,924 and the highest at , with a sampling rate ranging from 10 Hz to 44 KHz .
On the contrary, non-intrusive methods were developed in the contactless approach without coming in contact with the animal body using camera systems. The data was recorded in images or videos, and data quantity and quality varied across different studies. The lowest number of images recorded was 108 , and the highest was 630,000 . The image quality was reported to be pixels at a minimum and pixels at a maximum, with a frame rate ranging from 01 FPS to 30 FPS.

3.3. DL models and networks for livestock behaviour recognition (RQ. 3)

In the primary studies, a total of 23 various DL models were reported for addressing the 13 different types of behaviour recognition problems. These models include different variants of YOLO, CNN, R-CNN, DNN, LSTM, and some combinations of models such as CNN-LSTM and C3D-ConvLSTM. Figure 5 shows the DL models reported in the primary studies and the number of times they were used for each behaviour recognition problem. Among 23 DL models and their variants, the most popular were CNN, Faster R-CNN, YOLOv5, YOLOv4, and CNNLSTM. Although selecting the DL model for a specific type of problem is challenging with no defined rules, initial research found a link between model selection and the type of behaviour recognition problem. YOLOv5 was primarily used for drinking behaviour recognition since drinking behaviour is commonly regarded as an individual and interactive level object detection problem . It has provided superior performance for a wide range of applications due to its incredible efficiency and power in detecting objects across various domains.
Similarly, CNN was used for Feeding, Foraging, and Motion recognition since they are highly effective in analyzing videos or images by identifying unique feeding, foraging, or motion patterns based on spatial information within the data. However, LSTM was used for Lameness recognition since the available data was primarily in time series and was acquired using physical IMU sensors. Faster RCNN was mainly used for Mounting and Posture behaviour recognition since it uses an attention mechanism based on RPN to extract regions of interest from images, allowing it to identify behaviours at the individual and group levels, whether interactive or non-interactive. Faster R-CNN, on the contrary, is computationally demanding when it comes to real-time implementation.
As stated previously, behaviour is defined across a continuous period. As a result, the time domain becomes an essential aspect in recognising behaviours. Although the state-of-the-art is currently confined to instantaneous frame-by-frame recognition, some models consider the time factor. C3D-ConvLSTM is one of these models used in studies to recognise Feeding, Motion, and Social behaviour. The C3D-ConvLSTM is the LSTM with additional 3D convolutional layers. A DL model is often employed in two dimensions; however, in three dimensions, an additional dimension is introduced to increase the model’s accuracy by expanding the convolution along with the temporal dimensions, allowing it to learn both discriminative visual features and temporal correlations. Another example is the TSN, which uses segment-based sampling to ensure that the sampled video clips are distributed equally over the temporal dimension, providing another critical indication for action understanding. TSN was reported in one study for Drinking behaviour recognition only.
Figure 6 shows the DL networks reported in the primary studies and the number of times they were used for each behaviour recognition problem. A total of 24 various DL networks were reported in the primary studies. Most of the DL networks were custom-built, with researchers designing their network architecture rather than using predefined ones. Furthermore, the top five pre-defined network architectures were VGG16, CSPDarknet53, GoogLeNet, ResNet101, and ResNet50. Figure 7 shows the combinations of DL models and networks reported in the primary studies. YOLOv5 was used mostly with CSPDarknet53 as the backbone network, followed by CNN with custom-built networks, and Faster R-CNN with ResNet50.

3.4. Performance metrics and methodologies (RQ. 4)

Researchers used ten different performance metrics to evaluate the effectiveness of DL models. Figure 8 shows the performance metrics and the number of times they were reported in the primary studies. Precision and Accuracy were the most used performance metrics, followed by the F1score, mean Average Precision (mAP), Recall, Sensitivity, Specificity, Average Precision (AP), Intersection over Union
Table 5
Summary of data collection, type, quantity, and quality.
Reference Type of problem Data collection Data type Data quantity Data quality
(Rahman et al. 2016) Feeding, Posture, Neck mounted collar with sensors, Honeywell HMC6343 Accelerometer signals 8,62,500 samples 10 Hz sampling rate
(Zheng et al. Posture Microsoft Kinect v2 sensor RGB & depth images 356,000 images px
(Yang et al. Nursing Hikvision camera (DS-2CD1321D-I) Videos,RGB images 421,972 images px, 10 FPS
(Nasirahmadi et al., 2019) Posture Two top view cameras (VIVOTEK IB836BAHF3, Hikvision DS-2CD2142FWD-I) RGB Images 4,900 images px
(Li et al., 2019) Mounting G-282C, Nürnberg, Videos,RGB images 1,500 images px, 2 FPS
(Zhu et al., 2020) Posture
Germany)
Microsoft Kinect v2 sensor
RGB & depth images
Videos, RGB im-
18,133 pairs of images px, 5 FPS
(Yang et al. 2020) Feeding, Drinking, Nursing, Motion Hikvision camera (DS-2CD1321D-I) ages 630,000 images 960 x 540 px, 5 FPS
(Nasirahmadi et al., 2020) Pecking Microphone (Monacor VB-120MIC)Camera (TosiNet Realtime 2K 4 MPPoE-IP-camera) Audio signals,Videos 13,100 sound clips
(Turner et al. Tail-biting 6 IP camera (GV-BX 1300 KV , Geovision Inc., Taipei, Taiwan) Videos,RGB images 8 hr video (247 tail biting events lasting px, 30 FPS
(Alameer et al. Feeding, Foraging RGB & grayscale images 42,778 images 640 x 360 px, 25 FPS
2020b) Two cameras (Microsoft Kinect for Xbox One, Microsoft, Redmond, Washington, USA)
(Chen et al. 2020a) Feeding IR outdoor dome security camera (CTPTLVA29AV, Cantek Videos clips for each class px, 30 FPS
(Achour et al. Feeding Raspberry Pi 3 Model Videos, RGB images
2020) B connected to a USB webcam (Yudanny USB webcam (Yud 19 hrs, 25,352 images ( 4 datasets)
(Alameer et al. Posture, Drinking Camera (Microsoft Videos, RGB im- 11,3379 images
2020a) Kinect for Xbox One, Microsoft, Redmond, Washington, USA) ages
(Fuentes et al. 2020) Posture, Feeding, Social, Mounting Cameras Videos, RGB & opitcal flow im- 350 videos, 12 min each px, 1 FPS
(Yin et al., 2020) Motion Cameras (SONY HDRCX290 & a network monitoring camera system YW7100HR09-SC62-TA12)
ages
Videos,RGB images
1,009 videos, 90 sec each, 2,270,250 images 512 x 512 px, 25 FPS
(Bocaj et al. 2020) Feeding, Motion Public datasets Accelerometer signals Two datasets 87621 samples, 6 subjects (Horse)86557 samples, 5 subjects (Goat) 12 Hz sampling rate 100 Hz sampling rate
Carrión et al. 2020) Motion Fixed dome cameras Videos, RGB images 1,000 images 640 x 360 px, 6 FPS
Lameness Wearable device based on the Intel QuarkSE microcontroller C1000 integrating Bosch BMI160(Boschsensortec.com, 2016) Accelerometer signals 2,04,999 samples 16 Hz sampling rate
Table 5: (Continue)
Reference Type of problem Data collection Data type Data quantity Data quality
(Wu et al., 2021) Posture, Drinking, Motion
Hikvision DS-2DM1714 dome webcam (Hikvision Digital
Technology Co. Ltd., Hangzhou, China)
Videos, RGB images 4566 videos, 63 each 224 x 224 px, 25 FPS
(Chen et al. 2020b) Feeding, Drinking Wide angle fish eye camera Videos, RGB & grayscale images 1 day px
(Nunes et al. 2021) Foraging LK-SC100B microcamera (LKSUMPT, Shenzhen, China) Audio, Video events, 0.3 to 0.5 sec each bits
(Noe et al., 2021) Mounting Cameras Videos, RGB images 15 videos, 2,000 Images px
(Yang et al. Mounting Haikang infrared network camera (DS-2CD3345-I, Hikvision, Hangzhou, China) Videos, RGB images 1,000 images px, 25 FPS
(Kawano et al. 2021) Mounting Cameras Videos, RGB images 12 hrs, 5,020 images
(Hosseininoorbin et al., 2021) Feeeding, Motion, Collar tags, IMU sensor Accelerometer signals samples 50 Hz sampling rate
(Wang et al. 2021) Foraging Collar with microphone 9750 byTwin-star of Ko- Audio, Video 21,924 samples sampling
(Li et al., 2021) Feeding, Motion Public dataset Accelerometer signals 5,30,485 samples rate
(Nguyen et al. Drinking Three cameras (GoPro 5 Black) Videos, RGB images 1,715 videos, 64 hr 256 x 256 px
(Luo et al., 2021) Posture, Mounting IR camera Videos, RGB images 22,509 images px, 15 FPS
(Xu et al., 2021) Feeding, Social, 5 turret cameras (MR832, 1080p) Videos, RGB images 108 images 1280 x 720 px, 15 FPS
(Qiao et al. DS-2DM1-714 integrated IP came Videos, RGB im-
2022) integrated IP camera (Hikvision Inc., Hangzhou, China) ( calf) & 236(cow) videos
(Ding et al. Suckling Camera(DS-2CD3346WD- Videos, RGB images 5,000 images 640 x 640 px, 24 FPS
2022) I, HIKVISION, Hangzhou, China)
(Ma et al., 2022) Motion Videos, RGB images 224 x 224 px, 25 FPS
Cameras (Shenzhen, Yiwei Ruichang Technology Co., Ltd.,YW7100HR09-SC62- TA12 406 videos, 15-30 sec each, 2,56,500 images
(Gu et al., 2022) Emergency Camera RGB images 5,560 images
(Gan et al., Social Camera (DS- Videos 100 videos, 30 x 540
2022b) 2CD1321D-I, Hikvision, Hangzhou, China) sec each px, 5 FPS
(Noe et al., 2022) Lameness Camera RGB images 2,000 images px
(Turner et al. Posture, Motion, Jaw mounted Accelerometer Two datasets
2022) Feeding ActiGraph sensors (ActiGraph, Pensacola, Florida,USA) & ear mounted activity sensors (Axivity Ltd, Newcastle,UK) signals 29,179 & 2,54,087 samples sampling rate
(Shang et al., 2022) Posture, Feeding Pucblic dataset, Camera recorded custom dataset Videos, RGB images 61 videos, 4,360 images px
(Yu et al., 2022) Feeding Two ZED2 depth camera (STEREOLABS) Videos,RGB images 80 videos, 10,288 images px, 30 FPS
(Cheng et al. Posture, Drinking, Cameras (HIKVISION, Hangzhou, China) Videos,RGB images 12 days, 100 hr 1920 x 1080, 12
(Lu et al. Posture Camera Videos, RGB images 2,310 images px, 15 FPS
(Gan et al. 2022a) Suckling Cameras (IPX DDK1700D, USA) Videos 100 videos, 60 sec each & 8 hr , 7 FPS
Ohwada, 2021) Foraging, Motion, 4 Cameras Videos,RGB images 3 days, 1,093 images px
(Jiang et al. Posture, Drinking, EZVIZ camera (HIKVI- Videos, RGB im- 2,000 images
All Rohan et al.: Preprint submitted to Elsevier Page 13 Of 24
Table 6
Summary of DL models and networks, number of classes, and their performance
Reference Type of problem Deep Learning models Networks Candidate Classes objects Performance
(Rahman et al. 2016) Feeding, Posture, Motion SAE Custom-built N/A 9 Average precision: 62%
(Lheng et al. Posture Faster R-CNN ZFNet RPN 5 Accuracy:
2018)
et al. Nursing FCN VGG16 N/A 2 Accuracy: 96.8%
Yang (Nasirahmadi Posture Faster R-CNN, R-FCN, SSD Inception V2, ResNet50, N/A 3 mAP: 91% using Faster R-CNN & Inception V2
(Li et al., 2019) Mounting Mask R-CNN ResNet101 ResNet50, ResNet101 RPN 2 Accuracy: 91.47%
(Zhu et al., 2020) Posture Faster R-CNN ZFNet RPN 5 Average precision:
(Yang et al. FCN N/A 6
2020) Feeding, Drinking, Nursing, Motion AlexNet, VGG16, GoogLeNet Accuracy: 97.49% (drinking), 95.36% (feeding), & 88.09% (nursing)
(Nasirahmadi et al., 2020) Pecking CNN Custom-built N/A 2 Accuracy: 96.8%
(Turner et al. 2022) Tail-biting SSD, CNNLSTM VGG16, ResNet50 N/A 2 Accuracy: 96.35% using
(Alameer et al. 2020b) Feeding, Foraging CNN GoogLeNet, ScGoogLeNet N/A 7 ResNet-50 Accuracy:
(Chen et al. Feeding CNN-LSTM Xception N/A 2 Accuracy: 98.4%
(Âchour et al. Feeding 4 CNN models Xception N/A 2, 2, 6, Accuracy:
2020) 17 92.61%
(Alameer et al. 2020a) Posture, Faster R-CNN, YOLO ResNet-50 RPN 5 mAP: 98.9%
(Fuentes et al. 2020) Posture, Feeding, Social, Mounting Faster R-CNN, YOLOv3 VGG16, Darknet53 N/A 15 mAp: 85.6% using saptio-
temporal analysis (YOLOv3)
(Yin et al., 2020) Motion CNN-LSTM EfficientNet, VGG16, ResNet50, DenseNet169 Custom-built BiFPN 5 Accuracy: 97.87%
(Bocaj et al. Feeding, Motion CNN N/A 6, 5 Accuracy:
2020) (Fernández- 97.42%
Motion CNN AlexNet N/A 2
Carrión et al.
(Jarchi et al. Lameness LSTM Custom-built N/A 4 Accuracy:
96.73%
(Wuet al., 2021) Posture, Drinking, Motion CNN-LSTM, BiLSTM VGG16, VGG19, ResNet18, ResNet101, MobileNetV2, DenseNet201 N/A 5
(Chen et al. 2020b) Feeding, Drinking Mask R-CNN Custom-built FPN 3 mAP: 89.1%
(IoU) and Mathews Correlation Coefficient (MCC). Most of the studies used a combination of more than one metric.
Accuracy was used for 12 behaviours, including Drinking, Feeding, Foraging, Lameness, Motion, Mounting, Nursing, Pecking, Posture, Social, Suckling, and Tail-biting.
AP was used for 03 behaviours, including Mounting, Posture, and Social. F1-score was used for ten behaviours, including Drinking, Emergency, Feeding, Foraging, Lameness, Motion, Pecking, Posture, Social, and Suckling. The mAP was used for 08 behaviours, including Drinking,
Table 6: (Continue)
Reference Type of problem Deep Learning models Networks Candidate Classes objects Performance
(Nunes et al. Foraging LSTM Custom-built N/A 2 mAP: 86.42%
2021) Mounting CNN VGG16 N/A 2 Accuracy: 98%
(Yang et al. Mounting Faster R-CNN ResNet50 RPN 2 Accuracy:
2021) 95.15%
(Kawano et al. Mounting CNN ResNet50 N/A 4 mAP: 80.02%
Hosseininoorbin et al., 2021) Feeeding, Motion, Drinking DNN Custom-built N/A 9 F1 Score: 89.3%
(Wang et al. 2021) Foraging CNNRNN Custom-built N/A 5 93.17% using
(Li et al., 2021) Feeding, Motion CNN Custom-built N/A 5 RNN mAP: 95.4% Accuracy:
(Nguyen et al. Drinking RCNN, TSN Custom-built N/A 3
2021)
(Luo et al., 2021) Posture, Mounting Faster R-CNN, YOLOv3, YOLOv5 ResNet50, Darknet53, CSPDarknet53, MobileNetV3, FPN 5 mAP: 92.04% (YOLOv5)
Posture Mask R-CNN RPN 2 mAP: 94%
(Xu et al., 2021) (Qiao et ai. Motion C3D- C3DLSTM, RNN, Inception N/A 5 Accuracy: (calf), 86.67% (cow)
2022) Suckling FD-CNN, YOLOv5 CSPDarknet53 FPN 3 Precision: 93.6%
Motion CNN (Rexnet 3D) ResNet101, MobileNetV2, MobileNetV3, ShuffleNetV2, C3D N/A 3 Accuracy: 95%
(Gu et al., 2022) Emergency Faster R-CNN, YOLOv5, YOLOv4 CSPDarknet53 FPN 3 Average precision: 95.5% (YOLOv5)
2022b) Social DHRN, STAGCN Custom-built N/A 2 Precision: 94.21%
(Noe et al., 2022) Lameness Mask R-CNN ResNet101 N/A 2 Accuracy: 95.5%
(Turner et al. Posture, Motion, BiLSTM Custom-built N/A 9 Accuracy: 61.7% using BiLSTM
(Shang et al. Posture, Motion, CNN, YOLOv4 N/A 7, 4 Accuracy 95.17% using
ShufflenetV2, MobileNetV2, ResNet18, GoogLeNet, MobileNetV3
(Yu et al., 2022) Feeding DRN-YOLO DRNet N/A 3 mAP: 96.91%
Posture, YOLOv5 CSPDarknet53 FPN 4 mAP: 97.4%
2022) Feeding
(Lu et al., 2022) YOLOv4 ESCMobileNetV3 N/A 4 Accuracy:
(Gan et al. Suckling CNN ResNet101 FPN 2 96.83%
(Uchino and Ohwada, 2021) Foraging, Motion, Drinking YOLOv5 CSPDarknet53 FPN 5 Precision: 95.2%
(Jiang et al. 2020) Posture, Drinking, Feeding, Motion YOLOv4 Darknet N/A 4 Accuracy: 97.48%
Feeding, Foraging, Motion, Mounting, Posture, Social, and Tail-biting. Precision was employed for 11 behaviours, including Drinking, Emergency, Feeding, Foraging, Motion, Mounting, Pecking, Posture, Social, Suckling, and Tailbiting. The Recall was used for ten behaviours, including Drinking, Emergency, Feeding, Foraging, Motion, Mounting, Pecking, Posture, Social, and Suckling. Sensitivity was employed for 07 behaviours, including Drinking, Feeding,
Lameness, Motion, Mounting, Nursing, and Tail-biting. Specificity was used for 08 behaviours, including Drinking, Feeding, Lameness, Motion, Mounting, Nursing, Posture, and Tail-biting.
The selection of performance metrics was dependent on the type of DL model. For DL models like CNN and CNNLSTM, either with pre-defined or custom-built network architecture, metrics such as Accuracy, F1-score, Recall,
Figure 5: DL models reported in the primary studies and their use for each behaviour recognition problem.
Specificity, and Sensitivity were used for evaluation. However, for the DL models such as YOLO, its variants, Faster R-CNN, and Mask R-CNN, metrics such as Precision, mAP, IoU and MCC were used. Notably, the mAP was used to evaluate a DL model in most cases since these models typically use a bounding box strategy for object detection. The mAP computes a score by comparing the ground truth bounding box to the detected box. The higher the score, the more accurate the detection of a DL model. IoU and MCC were the least used performance metrics for group interactive behaviours such as Mounting.

3.5. Effective DL models and networks (RQ. 5)

It is difficult to generalise which DL model and network worked best because various classes and performance metrics were used to develop and assess a DL model for a specific behaviour recognition problem in each of the 44 primary studies. For example, for Drinking behaviour recognition, (Wu et al., 2021) used CNN-LSTM, where the model was trained for five classes and used Accuracy as a performance metric. However, (Uchino and Ohwada, 2021) used YOLOv5 with the same number of classes but used Precision as a performance metric. Furthermore, (Alameer et al. 2020a) used YOLO with the same number of classes but used mAP as a performance metric. Therefore, to have a clear overview of the best-performing DL models and networks, this SLR study categorises the results as the most effective DL models and networks based on a particular behaviour recognition problem and overall general performance. Tables 7, 8, and 9 summarise the most effective
DL models and networks based on behaviour recognition problems. The results are presented using Accuracy (Table 7), Precision (Table 8), and mAP (Table 9) as performance metrics. While Figure 9 and 10 shows the overall general performance of the top 10 DL models and networks reported in the primary studies regardless of the type of behaviour recognition problems. The highest and lowest reported Accuracy and mAP values are presented for each model and network.
CNN-LSTM, YOLOv5, and YOLO were the most successful DL models for recognising drinking behaviour, whereas the best networks were VGG16, CSPDarknet53, and ResNet-50. CNN and YOLOv5 were the best models for feeding behaviour recognition, whereas GoogLeNet and CSPDarknet53 were the best networks. CNN, YOLOv5, and LSTM were the best models for recognising foraging behaviour, while GoogLeNet and a custom-built network were the best networks. LSTM with a custom-built network provided the best results for lameness recognition. CNN-LSTM, YOLOv5, and CNN were the best models for motion recognition, whereas the best networks were VGG16, CSPDarknet53, and a custom-built network. CNN and YOLOv5 were the best models for recognising mounting behaviour, whereas the best networks were VGG16 and CSPDarknet53. The most successful DL model for nursing behaviour recognition was FCN with the VGG16 network. With a custom-built network, CNN was the best model for pecking recognition. CNN-LSTM and Faster R-CNN were the best models for posture recognition, whereas the best networks were VGG16, ZFNet, and ResNet-50.
Figure 6: DL networks reported in the primary studies and their use for each behaviour recognition problem.
Table 7
Most effective DL models and networks based on behaviour recognition problems with Accuracy as a performance metric.
Behaviour type Model Network Accuracy (%)
Drinking CNNLSTM VGG16 98
Feeding CNN GoogLeNet 99.4
Foraging CNN GoogLeNet 99.4
Lameness LSTM Custombuilt 96.73
Motion CNNLSTM VGG16 98
Mounting CNN VGG16 98
Nursing FCN VGG16 96.8
Pecking CNN Custombuilt 96.8
Posture CNNLSTM VGG16 98
Social C3DConvLSTM Custombuilt 90.32
Tail-biting CNNLSTM ResNet-50 96.35

3.6. Challenges (RQ. 6)

As DL and AI are still in development, specific challenges are associated with designing and implementing these technologies. Particularly for tasks such as livestock behaviour recognition, there were 13 significant challenges
Table 8
Most effective DL models and networks based on behaviour recognition problems with Precision as a performance metric.
Behaviour type Model Network Precision (%)
Drinking YOLOv5 CSPDarknet53 95.2
Emergency YOLOv5 CSPDarknet53 95.5
Foraging YOLOv5 CSPDarknet53 95.2
Motion YOLOv5 CSPDarknet53 95.2
Posture Faster R-CNN ZFNet 95.47
Social STAGCN Custombuilt 94.21
Suckling CNN ResNet101 95.2
indicated in the primary studies. Figure 11 shows the associated challenges related to the application of DL for livestock behaviour recognition.
The most significant of these 13 challenges indicated by the of the primary studies was the occlusion and adhesion. Occlusion and adhesion happen when one object in an image obscures the part of another object or when an object comes in contact with another identical object. This often occurs on farms with several animals in a group in an image. Occlusions of several types have been reported; an occlusion can be induced by animals themselves, known as Self-occlusion. Self-occlusion occurs when one part of the body blocks another essential part, inhibiting the features required to recognise patterns in an image for object detection.
Figure 7: The combinations of DL models and networks reported in the primary studies.
Table 9
Most effective DL models and networks based on behaviour recognition problems with mAP as a performance metric.
Behaviour type Model Network mAP (%)
Drinking YOLO ResNet-50 98.9
Feeding YOLOv5 CSPDarknet53 97.4
Foraging LSTM Custombuilt 86.42
Motion CNN Custombuilt 95.4
Mounting YOLOv5 CSPDarknet53 92.04
Posture Faster ResNet-50 98.9
R-CNN
Social YOLOv3 Darknet53 85.6
Inter-object occlusion can also occur when similar types of objects are in an image. Background occlusion occurs when the object’s background under identification mixes with the object.
Data imbalance and complex environments were reported by of the primary studies as other prominent challenges. Data imbalance happens when the number of samples for each class is not evenly distributed. Most of the time, there is a large amount of data for one class, referred to as the majority class, and relatively fewer samples for one or two other classes, referred to as the minority classes leading to biased and inaccurate results. On the contrary, the complex environment of livestock farms is another major issue for developing computer vision-based solutions. The
environment of these farms often creates complex backgrounds in an image due to the influence of the heat lamps, water and urine stains, manure and complex floor status. The farm environment is variable, and there are partly unpredictable background noises. Interference from postures and surroundings, vast spatial area, and involvement of a substantial number of animals makes the application of DL quite challenging. Another significant challenge reported by of the primary studies is related to illumination & weather changes. The different illumination of the scenes, variable light intensity, variation in illumination throughout the day and through different pens or sheds, and data recorded under different light conditions were reported to hinder the development of sustainable DL models.
The lack of availability of adequate data, known as data scarcity, was another challenge reported by of the primary studies. Background blending was another challenge reported by of the primary studies. Low contrast between animal and background, the animal colour that mixes with the background, makes it hard to differentiate between the background and the object in an image. It was discovered that some animal behaviours were very similar. For instance, there is a resemblance between cow feeding and grass arching behaviour and between piglets’ aggressive play and social behaviour. These behavioural similarities were reported by of the primary studies. Similarly, of the primary studies reported object similarities, the animals with similar colours, shapes, patterns, and sizes in an image as a significant problem. Some other challenges, such as misjudgment among different classes, known as
Figure 8: The performance metrics used for evaluation in the primary studies.
misclassification and missing object detection in videos, were also reported by of the primary studies.
Although animal behaviour varies widely, there can be significant similarities between various behaviours. Inadequate definitions of behaviours were reported as a barrier in of the primary studies to creating more clearcut and impartial DL models. Another major challenge of the studies identified was obtaining robust feature representation in natural scenes, feature extraction, and data collection using high-quality tools.
Occlusion and adhesion, background blending, and challenges related to the complex environment are still open research problems in computer vision. There are several ways to solve these challenges, such as the one using image segmentation presented by (Chilukuri et al., 2022). Most of the challenges reported in the primary studies are directly or indirectly related to the data. The challenge, such as data imbalance, can be solved by recording data with adequate samples for each class. The effect of different illuminations caused by the shadows or weather changes can also be minimised by creating a dataset rich with the samples collected under different lighting and weather conditions. Data scarcity can be reduced by gathering data with good quantity and quality. Challenges related to the object and behaviour similarities and improper behaviour definitions can be solved by defining the behaviours properly so that there is minimum to no confusion amongst different behaviours.

4. Discussion

Behaviour recognition is a complex problem that was earlier addressed by installing several physical sensors on the animal’s body. These sensors have proven to create distress in animals, negatively impacting their health and wellbeing. The development of computer vision-based technologies has lately emerged as a more prominent solution than the traditional physical sensor-based approaches.
Although several studies concentrating on the use of vision technologies have yielded some promising results in dealing with the problem of livestock behaviour recognition, there still needs to be an end-to-end approach. Most of the approaches used in the studies are built on frame-by-frame object detection. Object detection models such as YOLO, R-CNNs, and CNNs were used in most primary studies. These models detect objects in a single frame at a time and recognise behaviour by constantly detecting objects in an array of frames (videos).
On the contrary, as the 3D problem, behaviour recognition has been widely discussed in the literature. This is because in detecting a behaviour, there is a need to extract information from a video for a specific interval of time. As previously stated, it can be observed in Table 4 that behaviour is, by definition, time-dependent and consists of a sequence of actions. In the instance of behaviour recognition, time is a critical parameter. In recent years, spatiotemporal analysis has emerged as a much superior approach for action recognition, given that it considers the temporal information in the videos and the objects.
Figure 9: The overall general performance of the top 10 DL models.
Although some recent studies have deployed 3D DL models based on spatiotemporal analysis, such as TSN and C3DConvLSTM, livestock behaviour recognition is still confined to 2D object detection.
The application of spatiotemporal analysis could enhance the efficiency of DL models. Implementing these strategies requires an adequate amount of data. However, the data is not readily available for livestock behaviour recognition. Only a few publically available datasets can be used to train, test and validate DL models (Ng et al., 2022). Most studies have used custom datasets recorded in several farms under different conditions and are not publicly available. This lack of data availability is a significant bottleneck in developing DL models for livestock behaviour recognition. More public datasets focusing on the behaviours should be generated so that more researchers can contribute to developing these technologies. Furthermore, there are no guidelines for defining behaviours . Multiple definitions were found for a single type of behaviour in different studies. Walking, for example, was described as moving in a standing position, head up and walking, legs moving repeatedly, and cow position changes greatly, and the leg movement for more than 3 secs. Most of these definitions are based on personal observations and do not include expert judgements. A solid uniform set of definitions for each animal behaviour coordinated with veterinary behaviourists can assist in not just collecting tangible data but also in creating DL models more systematically. It will also aid in comparing the effectiveness of various models on the same level. None of the primary studies shared the data used
to develop the DL models, It will be also important that wherever possible the data used in the studies is shared with open access to the public to test other possible methods and for the reproducibility of the results.

5. Conclusion

This systematic literature review (SLR) investigates the application of deep learning (DL) techniques for livestock behaviour recognition. Accurate recognition of livestock behaviour is crucial for monitoring animal health in controlled agricultural settings. Recent advancements in AI, computer vision, and deep learning have made automated systems that can autonomously identify changes in animal behaviour and underlying health issues possible. This study’s findings highlight DL’s immense potential in recognising animal behaviours more efficiently than traditional human analysisbased approaches that have been used for decades. However, despite the promising results, DL-based livestock behaviour recognition is still in its early stages of development and faces several challenges. Significant challenges include occlusion and adhesion, complex environments, illumination and weather changes, and background blending, wellknown issues in the computer vision community. Research efforts are ongoing to tackle these challenges. Other challenges, such as data imbalance, data scarcity, and data acquisition, can be addressed through tangible strategies for recording high-quality datasets with sufficient information for each behaviour class.
Figure 10: The overall general performance of the top 10 DL networks.
Figure 11: Challenges related to the application of DL for livestock behaviour recognition.
Furthermore, no one-size-fits-all DL model can be deemed the best, as researchers have even used various models for similar behaviour recognition problems. However, CNN, CNN-LSTM, Faster R-CNN, and YOLOv5 have shown significant performance compared to other
models. Contactless approaches have also been reported to have substantial advantages over contact-based approaches. Additionally, some models, such as C3D Conv-LSTM, have incorporated temporal domain features in addition to spatial domain features. Recent research on human action recognition, which is more advanced than livestock behaviour recognition, has demonstrated that spatiotemporal analysis, considering spatial and temporal features in an image, can yield promising results. This could be an exciting research direction for developing more sustainable DL models for livestock behaviour recognition. Finally, this SLR study is limited to works published between 2012 and October 2022. The articles were selected from the most significant research databases using the criteria outlined in this study; articles from other databases were not included in this review.

Conflict of Interest

The authors declare that there is no conflict of interest.

Acknowledgement

This research was financially supported by Innovate UK (Project name: Towards Net Zero Dairy Farming through AI and Machine Vision (DAIRYVISION), Project reference: 107458)

Declaration of generative AI and AI-assisted technologies in the writing process

During the preparation of this work the author(s) used ChatGPT in order to improve the english language and to correct possible grammatical mistakes. After using this tool/service, the author(s) reviewed and edited the content as needed and take(s) full responsibility for the content of the publication.

CRediT authorship contribution statement

: Conceptualization: A.R. and T.D.; Data curation: A.R., M.J.H., M.S.R., F.A. and A.K.B.; Formal analysis: A.R., M.J.H., M.S.R., F.A. and A.K.B.; Funding acquisition: T.D.; Investigation: A.R., M.J.H. and F.A.; Methodology: A.R.; Project administration: T.D.; Resources: T.D.; Software: A.R., M.J.H. and F.A.; Supervision: T.D.; Validation: A.R., M.S.R., F.A., A.K.B. and T.D.; Visualization: A.R. and M.S.R.; Writing – original draft: A.R., M.S.R. and A.K.B.; Writing – review editing: A.R., M.S.R., A.K.B. and T.D..

References

Achour, B., Belkadi, M., Filali, I., Laghrouche, M., Lahdir, M., 2020. Image analysis for individual identification and feeding behaviour monitoring of dairy cows based on convolutional neural networks (cnn). Biosystems Engineering 198, 31-49.
Alameer, A., Kyriazakis, I., Bacardit, J., 2020a. Automated recognition of postures and drinking behaviour for the detection of compromised health in pigs. Scientific reports 10, 13665 .
Alameer, A., Kyriazakis, I., Dalton, H.A., Miller, A.L., Bacardit, J., 2020b. Automatic recognition of feeding and foraging behaviour in pigs using deep learning. Biosystems engineering 197, 91-104.
Atkinson, G.A., Smith, L.N., Smith, M.L., Reynolds, C.K., Humphries, D.J., Moorby, J.M., Leemans, D.K., Kingston-Smith, A.H., 2020. A computer vision approach to improving cattle digestive health by the monitoring of faecal samples. Scientific Reports 10, 17557.
Bareille, N., Beaudeau, F., Billon, S., Robert, A., Faverdin, P., 2003. Effects of health disorders on feed intake and milk production in dairy cows. Livestock production science 83, 53-62.
Bocaj, E., Uzunidis, D., Kasnesis, P., Patrikakis, C.Z., 2020. On the benefits of deep convolutional neural networks on animal activity recognition, in: 2020 International Conference on Smart Systems and Technologies (SST), IEEE. pp. 83-88.
Chen, C., Zhu, W., Steibel, J., Siegford, J., Han, J., Norton, T., 2020a. Recognition of feeding behaviour of pigs and determination of feeding time of each pig by a video-based deep learning method. Computers and Electronics in Agriculture 176, 105642.
Chen, Y.R., Ni, C.T., Ng, K.S., Hsu, C.L., Chang, S.C., Hsu, C.B., Chen, P.Y., 2020b. An ai-based system for monitoring behavior and growth of pigs, in: 2020 International Computer Symposium (ICS), IEEE. pp. 91-95.
Cheng, M., Yuan, H., Wang, Q., Cai, Z., Liu, Y., Zhang, Y., 2022. Application of deep learning in sheep behaviors recognition and influence analysis of training data characteristics on the recognition effect. Computers and Electronics in Agriculture 198, 107010.
Chidgey, K.L., Morel, P.C., Stafford, K.J., Barugh, I.W., 2015. Sow and piglet productivity and sow reproductive performance in farrowing pens with temporary crating or farrowing crates on a commercial new zealand pig farm. Livestock Science 173, 87-94.
Chilukuri, D.M., Yi, S., Seong, Y., 2022. A robust object detection system with occlusion handling for mobile devices. Computational Intelligence 38, 1338-1364. URL: https://onlinelibrary.
wiley.com/doi/abs/10.1111/coin.12511 doihttps:// doi.org/10.1111/coin. 12511
Cohen, J., 1968. Weighted kappa: nominal scale agreement provision for scaled disagreement or partial credit. Psychological bulletin 70, 213.
Ding, Q.a., Chen, J., Shen, M.x., Liu, L.s., 2022. Activity detection of suckling piglets based on motion area analysis using frame differences in combination with convolution neural network. Computers and Electronics in Agriculture 194, 106741.
Fernández-Carrión, E., Barasona, J.Á., Sánchez, Á., Jurado, C., CadenasFernández, E., Sánchez-Vizcaíno, J.M., 2020. Computer vision applied to detect lethargy through animal motion monitoring: a trial on african swine fever in wild boar. Animals 10, 2241.
Flower, F., De Passillé, A., Weary, D., Sanderson, D., Rushen, J., 2007. Softer, higher-friction flooring improves gait of cows with and without sole ulcers. Journal of dairy science 90, 1235-1242.
Flower, F., Sanderson, D., Weary, D., 2005. Hoof pathologies influence kinematic measures of dairy cow gait. Journal of dairy science 88, 3166-3173.
Food and Agriculture Organization of the United Nations 2022, . The State of Food and Agriculture 2022: Leveraging agricultural automation for transforming agrifood systems. Number 2022 in The State of Food and Agriculture (SOFA), FAO. URL: https://www. fao.org/documents/card/en/c/cb9479en doi10.4060/ cb9479en
Fuentes, A., Yoon, S., Park, J., Park, D.S., 2020. Deep learning-based hierarchical cattle behavior recognition with spatio-temporal information. Computers and Electronics in Agriculture 177, 105627.
Gan, H., Ou, M., Li, C., Wang, X., Guo, J., Mao, A., Ceballos, M.C., Parsons, T.D., Liu, K., Xue, Y., 2022a. Automated detection and analysis of piglet suckling behaviour using high-accuracy amodal instance segmentation. Computers and Electronics in Agriculture 199, 107162.
Gan, H., Xu, C., Hou, W., Guo, J., Liu, K., Xue, Y., 2022b. Spatiotemporal graph convolutional network for automated detection and analysis of social behaviours among pre-weaning piglets. Biosystems Engineering 217, 102-114.
Garcia, R., Aguilar, J., Toro, M., Pinto, A., Rodriguez, P., 2020. A systematic literature review on the use of machine learning in precision livestock farming. Computers and Electronics in Agriculture 179, 105826.
Gonçalves, P., Pedreiras, P., Monteiro, A., 2022. Recent advances in smart farming. Animals 12, 705.
Grace, D., 2019. Infectious diseases and agriculture, 439-447URL: https://www.ncbi.nlm.nih.gov/pmc/articles/
PMC7161382/ doi 10.1016/B978-0-08-100596-5. 21570-9
Gu, Y., Wang, S., Yan, Y., Tang, S., Zhao, S., 2022. Identification and analysis of emergency behavior of cage-reared laying ducks based on yolov5. Agriculture 12, 485.
Hosseininoorbin, S., Layeghy, S., Kusy, B., Jurdak, R., Bishop-Hurley, G.J., Greenwood, P.L., Portmann, M., 2021. Deep learning-based cattle behaviour classification using joint time-frequency data representation. Computers and Electronics in Agriculture 187, 106241.
Hu, H., Dai, B., Shen, W., Wei, X., Sun, J., Li, R., Zhang, Y., 2020. Cow identification based on fusion of deep parts features. Biosystems engineering 192, 245-256.
Jarchi, D., Kaler, J., Sanei, S., 2021. Lameness detection in cows using hierarchical deep learning and synchrosqueezed wavelet transform. IEEE Sensors Journal 21, 9349-9358.
Jiang, M., Rao, Y., Zhang, J., Shen, Y., 2020. Automatic behavior recognition of group-housed goats using deep learning. Computers and Electronics in Agriculture 177, 105706.
Kawano, Y., Saito, S., Nakano, T., Kondo, I., Yamazaki, R., Kusaka, H., Sakaguchi, M., Ogawa, T., 2021. Toward building a data-driven system for detecting mounting actions of black beef cattle, in: 2020 25th International Conference on Pattern Recognition (ICPR), IEEE. pp. 4458-4464.
Kitchenham, B., Brereton, O.P., Budgen, D., Turner, M., Bailey, J., Linkman, S., 2009. Systematic literature reviews in software
engineering-a systematic literature review. Information and software technology 51, 7-15.
Kitchenham, B.A., Charters, S., 2007. Guidelines for performing Systematic Literature Reviews in Software Engineering. Technical Report EBSE 2007-001. Keele University and Durham University Joint Report. URL: https://www.elsevier.com/_data/promis misc/525444systematicreviewsguide.pdf
Kong, Y., Fu, Y., 2022. Human action recognition and prediction: A survey. International Journal of Computer Vision 130, 1366-1401.
Laradji, I., Rodriguez, P., Kalaitzis, F., Vazquez, D., Young, R., Davey, E., Lacoste, A., 2020. Counting cows: Tracking illegal cattle ranching from high-resolution satellite imagery. arXiv preprint arXiv:2011.07369 .
Li, C., Tokgoz, K.K., Fukawa, M., Bartels, J., Ohashi, T., Takeda, K.i., Ito, H., 2021. Data augmentation for inertial sensor data in cnns for cattle behavior classification. IEEE Sensors Letters 5, 1-4.
Li, D., Chen, Y., Zhang, K., Li, Z., 2019. Mounting behaviour recognition for pigs based on deep learning. Sensors 19, 4924.
Liu, D., Oczak, M., Maschat, K., Baumgartner, J., Pletzer, B., He, D., Norton, T., 2020. A computer vision-based method for spatialtemporal action recognition of tail-biting behaviour in group-housed pigs. Biosystems Engineering 195, 27-41.
Lovarelli, D., Bacenetti, J., Guarino, M., 2020. A review on dairy cattle farming: Is precision livestock farming the compromise for an environmental, economic and social sustainable production? Journal of Cleaner Production 262, 121409.
Lu, L., Mao, L., Wang, J., Gong, W., 2022. Reserve sow pose recognition based on improved yolov4, in: 2022 IEEE Asia-Pacific Conference on Image Processing, Electronics and Computers (IPEC), IEEE. pp. 15381546.
Luo, Y., Zeng, Z., Lu, H., Lv, E., 2021. Posture detection of individual pigs based on lightweight convolution neural networks and efficient channelwise attention. Sensors 21, 8369.
Ma, S., Zhang, Q., Li, T., Song, H., 2022. Basic motion behavior recognition of single dairy cow based on improved rexnet 3d network. Computers and Electronics in Agriculture 194, 106772.
Mahmud, M.S., Zahid, A., Das, A.K., Muzammil, M., Khan, M.U., 2021. A systematic literature review on deep learning applications for precision cattle farming. Computers and Electronics in Agriculture 187, 106313.
Nasirahmadi, A., Edwards, S.A., Sturm, B., 2017. Implementation of machine vision for detecting behaviour of cattle and pigs. Livestock Science 202, 25-38.
Nasirahmadi, A., Gonzalez, J., Sturm, B., Hensel, O., Knierim, U., 2020. Pecking activity detection in group-housed turkeys using acoustic data and a deep learning technique. Biosystems engineering 194, 40-48.
Nasirahmadi, A., Sturm, B., Edwards, S., Jeppsson, K.H., Olsson, A.C., Müller, S., Hensel, O., 2019. Deep learning and machine vision approaches for posture detection of individual pigs. Sensors 19, 3738.
Ng, X.L., Ong, K.E., Zheng, Q., Ni, Y., Yeo, S.Y., Liu, J., 2022. Animal kingdom: A large and diverse dataset for animal behavior understanding, in: Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition (CVPR), pp. 19023-19034.
Nguyen, C., Wang, D., Von Richter, K., Valencia, P., Alvarenga, F.A., Bishop-Hurley, G., 2021. Video-based cattle identification and action recognition, in: 2021 Digital Image Computing: Techniques and Applications (DICTA), IEEE. pp. 01-05.
Noe, S.M., Zin, T.T., Tin, P., Kobayashi, I., 2021. Automatic detection of mounting behavior in cattle using semantic segmentation and classification, in: 2021 IEEE 3rd Global Conference on Life Sciences and Technologies (LifeTech), IEEE. pp. 227-228.
Noe, S.M., Zin, T.T., Tin, P., Kobayashi, I., 2022. A deep learningbased solution to cattle region extraction for lameness detection, in: 2022 IEEE 4th Global Conference on Life Sciences and Technologies (LifeTech), IEEE. pp. 572-573.
Nowodziński, P., 2021. Sustainability challenges URL: https:// startsmartcee.org/sustainability-challenges/
Nunes, L., Ampatzidis, Y., Costa, L., Wallau, M., 2021. Horse foraging behavior detection using sound recognition techniques and artificial intelligence. Computers and Electronics in Agriculture 183, 106080.
Orihuela, A., 2021. Management of livestock behavior to improve welfare and production. Animal 15, 100290.
Qiao, Y., Guo, Y., Yu, K., He, D., 2022. C3d-convlstm based cow behaviour classification using video data for precision livestock farming. Computers and Electronics in Agriculture 193, 106650.
Qiao, Y., Su, D., Kong, H., Sukkarieh, S., Lomax, S., Clark, C., 2020. Bilstm-based individual cattle identification for automated precision livestock farming, in: 2020 IEEE 16th International Conference on Automation Science and Engineering (CASE), IEEE. pp. 967-972.
Rahman, A., Smith, D., Hills, J., Bishop-Hurley, G., Henry, D., Rawnsley, R., 2016. A comparison of autoencoder and statistical features for cattle behaviour classification, in: 2016 international joint conference on neural networks (IJCNN), IEEE. pp. 2954-2960.
Santoni, M.M., Sensuse, D.I., Arymurthy, A.M., Fanany, M.I., 2015. Cattle race classification using gray level co-occurrence matrix convolutional neural networks. Procedia Computer Science 59, 493-502.
Shang, C., Wu, F., Wang, M., Gao, Q., 2022. Cattle behavior recognition based on feature fusion under a dual attention mechanism. Journal of Visual Communication and Image Representation 85, 103524.
Shankar, B., Madhusudhan, H., DB, H., 2009. Pre-weaning mortality in pig-causes and management. Veterinary world 2.
Slob, N., Catal, C., Kassahun, A., 2021. Application of machine learning to improve dairy farm management: A systematic literature review. Preventive Veterinary Medicine 187, 105237.
Tabak, M.A., Norouzzadeh, M.S., Wolfson, D.W., Sweeney, S.J., VerCauteren, K.C., Snow, N.P., Halseth, J.M., Di Salvo, P.A., Lewis, J.S., White, M.D., et al., 2019. Machine learning to classify animal species in camera trap images: Applications in ecology. Methods in Ecology and Evolution 10, 585-590.
Thorup, V.M., Nielsen, B.L., Robert, P.E., Giger-Reverdin, S., Konka, J., Michie, C., Friggens, N.C., 2016. Lameness affects cow feeding but not rumination behavior as characterized from sensor data. Frontiers in Veterinary Science 3. URL: https://www.frontiersin.org/articles/10.3389/ fvets. 2016.00037 doi 10.3389 / fvets. 2016.00037
Turner, K.E., Thompson, A., Harris, I., Ferguson, M., Sohel, F., 2022. Deep learning based classification of sheep behaviour from accelerometer data with imbalance. Information Processing in Agriculture URL: https://www.sciencedirect. com/science/article/pii/S2214317322000415. doi https://doi.org/10.1016/j.inpa.2022.04.001
Uchino, T., Ohwada, H., 2021. Individual identification model and method for estimating social rank among herd of dairy cows using yolov5, in: 2021 IEEE 20th International Conference on Cognitive Informatics & Cognitive Computing (ICCI* CC), IEEE. pp. 235-241.
Wang, K., Wu, P., Cui, H., Xuan, C., Su, H., 2021. Identification and classification for sheep foraging behavior based on acoustic signal and deep learning. Computers and Electronics in Agriculture 187, 106275. URL: https://www.sciencedirect. com/science/article/pii/S0168169921002921.
doi https://doi.org/10.1016/j.compag.2021.106275
Wu, D., Wang, Y., Han, M., Song, L., Shang, Y., Zhang, X., Song, H., 2021. Using a cnn-lstm for basic behaviors detection of a single dairy cow in a complex environment. Computers and Electronics in Agriculture 182, 106016. URL: https: / /www.sciencedirect. com/science/article/pii/S016816992100034X.
doi https://doi.org/10.1016/j.compag.2021.106016
Xu, B., Wang, W., Guo, L., Chen, G., Li, Y., Cao, Z., Wu, S., 2022. Cattlefacenet: A cattle face identification approach based on retinaface and arcface loss. Computers and Electronics in Agriculture 193, 106675. URL: https: //www.sciencedirect. com/science/article/pii/S016816992100692X doi https://doi.org/10.1016/j.compag.2021.106675
Xu, J., Wu, Q., Zhang, J., Tait, A., 2021. Automatic sheep behaviour analysis using mask r-cnn, in: 2021 Digital Image Computing: Techniques and Applications (DICTA), pp. 01-06. doi 10.1109 /DICTA52665. 2021.9647101
Yang, A., Huang, H., Zheng, B., Li, S., Gan, H., Chen, C., Yang, X., Xue, Y., 2020. An automatic recognition framework for sow daily behaviours based on motion and image analyses. Biosystems Engineering 192, 56-71. URL: https://www.sciencedirect.com/ science/article/pii/S1537511020300283 doihttps: //doi.org/10.1016/j.biosystemseng.2020.01.016
Yang, A., Huang, H., Zhu, X., Yang, X., Chen, P., Li, S., Xue, Y., 2018. Automatic recognition of sow nursing behaviour using deep learning-based segmentation and spatial and temporal features. Biosystems Engineering 175, 133-145. URL: https://www.sciencedirect.com/science/article/ pii/S1537511018304641 doi https://doi.org/10. 1016/j.biosystemseng.2018.09.011
Yang, Q., Xiao, D., Cai, J., 2021. Pig mounting behaviour recognition based on video spatial-temporal features. Biosystems Engineering 206, 55-66. URL: https://www.sciencedirect.com/ science/article/pii/S1537511021000726 doi https: //doi.org/10.1016/j.biosystemseng.2021.03.011
Yao, L., Hu, Z., Liu, C., Liu, H., Kuang, Y., Gao, Y., 2019. Cow face detection and recognition based on automatic feature extraction algorithm, in: Proceedings of the ACM Turing Celebration Conference – China, Association for Computing Machinery, New York, NY, USA. URL: https: / /doi.org/10.1145/3321408. 3322628 doi
Yin, X., Wu, D., Shang, Y., Jiang, B., Song, H., 2020. Using an efficientnet-lstm for the recognition of single cow’s motion behaviours in a complicated environment. Computers and Electronics in Agriculture 177, 105707. URL: https: / /www.sciencedirect. com/science/article/pii/S0168169920315386 doi https://doi.org/10.1016/j.compag.2020.105707
Yu, Z., Liu, Y., Yu, S., Wang, R., Song, Z., Yan, Y., Li, F., Wang, Z., Tian, F., 2022. Automatic detection method of dairy cow feeding behaviour based on yolo improved model and edge computing. Sensors 22. URL: https: //www.mdpi.com/1424-8220/22/9/3271 doi 10.3390 /s22093271
Zheng, C., Zhu, X., Yang, X., Wang, L., Tu, S., Xue, Y., 2018. Automatic recognition of lactating sow postures from depth images by deep learning detector. Computers and Electronics in Agriculture 147, 51-63. URL: https://www.sciencedirect. com/science/article/pii/S0168169917309985 doi https://doi.org/10.1016/j.compag.2018.01.023
Zhu, X., Chen, C., Zheng, B., Yang, X., Gan, H., Zheng, C., Yang, A., Mao, L., Xue, Y., 2020. Automatic recognition of lactating sow postures by refined two-stream rgb-d faster r-cnn. Biosystems Engineering 189, 116-132. URL: https://www.sciencedirect.com/ science/article/pii/S153751101930892X doihttps: //doi.org/10.1016/j.biosystemseng.2019.11.013

  1. *Corresponding authors at National Subsea Centre, School of Computing, Robert Gordon University, Aberdeen AB10 7AQ, UK (A.R.); School of Veterinary Medicine and Sciences, University of Nottingham, Sutton Bonington Campus, Loughborough, LE12 5RD, UK (T.D.). E-mail addresses: a.rohan@rgu.ac.uk (A.R.), tania.dottorini@nottingham.ac.uk (T. D).