أكثر

لماذا يتحول العامل z 1 إلى 0.999998 في مخرجاتي

لماذا يتحول العامل z 1 إلى 0.999998 في مخرجاتي


لقد قمت للتو ببناء نموذج يستخدم محلل ثلاثي الأبعاد - حجم السطح. أحاول استخدام عامل z هو 1. عندما أقوم بتشغيل النموذج ، يظهر جدول الإخراج الخاص بي أنه تم استخدام عامل Z بمقدار 0.999998 بدلاً من 1. أعلم أن هذا فرق صغير جدًا ولكن مع ذلك ، فإنه يؤدي إلى تحريف نتائجي إلى حد ما. ما أود معرفته حقًا ، هل هناك تفسير جيد لسبب تغييره إلى 0.999998 أو هل هناك طريقة لجعله يبقى عند 1؟


شكرا مرة أخرى على المدخلات الخاصة بك. عندما حاولت تغيير نوع البيانات النقطية ، تقوم الأداة بتدوين العامل z معًا وتثبيته عند 0.999998. لذا ... أعتقد أنه لا توجد طريقة للتغلب على هذا باستخدام بيانات الأعداد الصحيحة أو بيانات الفاصلة العائمة. حتى أنني حاولت التحويل إلى عدد صحيح واستخدام الآلة الحاسبة النقطية لمضاعفة البيانات بمقدار 1000 للحفاظ على الكسور العشرية في شكل عدد صحيح ، لكنني ما زلت عالقًا مع العامل 0.999998 z. لا نرد.


يجب أن أوافق على التعليقات ، إنها تتعلق بالطريقة التي تريد بها تمثيل هذا الرقم. إذا كنت تريد تخزين الرقم 1 كنقطة عائمة ، فقد قام ArcGIS بتخزين هذا الرقم كـ 0،9999… يبدو أن وسيطة عامل Z هذه مخزنة بهذه الطريقة. أعتقد أنه لا توجد طريقة لتخزينه كعدد صحيح. في الواقع ، 0،9999 يساوي 1.

يجب أن أضيف صورة رأيتها قبل أيام قليلة. يناسب هذا السؤال.


لماذا يسمى ناقل كامن؟

لقد تعلمت للتو عن GAN وأنا مرتبك قليلاً بشأن تسمية Latent Vector.

أولاً ، حسب فهمي ، فإن تعريف المتغير الكامن هو متغير عشوائي لا يمكن قياسه مباشرة (نحتاج إلى بعض الحسابات من المتغيرات الأخرى للحصول على قيمته). على سبيل المثال ، المعرفة متغير كامن. هل هذا صحيح؟

وبعد ذلك ، في GAN ، المتجه الكامن $ ​​z $ هو متغير عشوائي وهو أحد مدخلات شبكة المولد. قرأت في بعض البرامج التعليمية ، لقد تم إنشاؤها باستخدام وظيفة عشوائية بسيطة فقط:

فكيف يرتبط الأمران؟ لماذا لا نستخدم المصطلح "متجه بقيم عشوائية بين -1 و 1" عند الإشارة إلى $ z $ (مدخلات المولد) في GAN؟


سأقترب من هذا بشكل مختلف قليلاً بدءًا من نفس المكان تقريبًا. هنا سأستخدم طنينًا $ lambda $ / 2 20m ثنائي القطب مدفوعًا بـ 100 W كنموذج.

دعونا نحسب تيار عند نقطة تغذية ثنائي القطب عند الرنين ، يتم العثور على هذا مع قوة الإدخال (100 واط) ومقاومة نقطة التغذية التي يُفترض أنها بالنسبة لثنائي القطب لدينا هي النظرية 73 $ Omega $:

لذلك يمكن حساب جهد القيادة بقانون أوم:

$ V_ نص = I cdot R = 1.17 mathrm A_ text cdot 73 أوميجا = 85.44 : mathrm V_ text $ (إشارة غير معدلة)

يتطلب الجهد في نهاية ثنائي القطب حساب Q وحل ما يلي:

في محاولة لتقليل التلويح باليد ، يمكننا استخدام بعض التقريبات من نظرية خط النقل لتعطينا Q. (انظر هندسة هوائي الراديو في Edmund Laport للحصول على شرح كامل (ورياضيات ثقيلة)) للقيام بذلك نحتاج إلى الممانعة المميزة لـ ثنائي القطب (يعتبر كخط نقل). هذا معطى من قبل:

$ Z_ <0> = 276 cdot log_ <10> frac

= 972.31 أوميغا دولار

حيث $ l $ هو الطول الإجمالي لثنائي القطب و $ p $ هو نصف قطر الموصل (كلها في نفس الوحدات). سأتجاهل حساب الطول الدقيق هنا ، فنحن نعلم أنه أقصر بحوالي 5٪ من الطول الموجي الحقيقي لتعويض عامل السرعة وتأثيرات النهاية. يعتمد هذا الجزء التالي على نظرية خط النقل ويمكن أن يتحول إلى كيس من الثعابين ، إذا كنت تريد معرفة المزيد عن مصدر هذه المعادلات ، فتحقق من المرجع المقتبس أعلاه. $ Q $ هنا هو نسبة جهد الموجة المباشرة والموجة المنعكسة:

و $ m $ محسوبة من مقاومة نقطة التغذية $ R $ والمقاومة المميزة $ Z_0 $:

عندما أحسب $ Z_0 $ ، سأفترض أن ثنائي القطب الخاص بنا مصنوع من سلك 3 مم. الآن لنتعرف على الأرقام:

يمكننا الآن حل مشكلة $ V_ text $:

مرة أخرى ، هذا هو جهد RMS الذي يجب أن نحوله إلى جهد الذروة:

568 دولارًا : mathrm V_ text cdot sqrt <2> = pm 804 : mathrm V_ text $

هذا كل شيء مقابل 100 واط ، إذا قمنا بدلاً من ذلك بتوصيل 1500 واط في الرياضيات أعلاه ، فإننا نتوصل إلى

4397 دولار : mathrm V_ text :نص : pm 6200 : mathrm V_ text $

هذه هزة كبيرة جدًا. لذا بالعودة إلى أسئلة OP الأخرى ، فإن طاقة الإدخال لها تأثير كبير على الجهد. جميع العوامل المتبقية هي نفسها المستخدمة في تعظيم كفاءة الهوائي (الرنين ، حجم الموصل ، إلخ.)

تعديل: تأتي معظم المعادلات المذكورة أعلاه من القسم الخاص بالتصميم الدائري في المرجع المذكور أعلاه. الكتاب ثقيل في الرياضيات أكثر من مراجع راديو الهواة النموذجية ، ولكنه ليس سيئًا مثل بعض النصوص الهندسية الأكثر حداثة. إنها تسير ببطء ، ولكنها قراءة جديرة بالاهتمام.


وظائف جيدة لتجزئة كلمة المرور

يأتي PBKDF2 من PKCS # 5. يتم تحديد معلماتها باستخدام عدد التكرار (عدد صحيح ، على الأقل 1 ، بدون حد أعلى) ، ملح (تسلسل عشوائي للبايت ، بدون قيود على الطول) ، طول الإخراج المطلوب (يمكن لـ PBKDF2 إنشاء إخراج بطول قابل للتكوين) ، و & quunderlying PRF & quot. من الناحية العملية ، يتم استخدام PBKDF2 دائمًا مع HMAC ، وهو في حد ذاته بناء مبني على دالة تجزئة أساسية. لذلك عندما نقول & quotPBKDF2 مع SHA-1 & quot ، فإننا في الواقع نعني & quotPBKDF2 مع HMAC مع SHA-1 & quot.

  • تم تحديده لفترة طويلة ، ويبدو سالمًا في الوقت الحالي.
  • تم تنفيذه بالفعل في إطار عمل مختلف (على سبيل المثال ، تم توفيره مع .NET).
  • قابل للتكوين بدرجة عالية (على الرغم من أن بعض التطبيقات لا تتيح لك اختيار وظيفة التجزئة ، على سبيل المثال ، تلك الموجودة في .NET مخصصة لـ SHA-1 فقط).
  • حصل على بركات NIST (نموذج الفرق بين التجزئة واشتقاق المفتاح انظر لاحقًا).
  • طول الإخراج القابل للتكوين (مرة أخرى ، انظر لاحقًا).
  • تستخدم وحدة المعالجة المركزية بشكل مكثف فقط ، وبالتالي فهي قابلة للتحسين العالي باستخدام وحدة معالجة الرسومات (المدافع هو خادم أساسي يقوم بأشياء عامة ، أي كمبيوتر شخصي ، ولكن يمكن للمهاجم إنفاق ميزانيته على أجهزة أكثر تخصصًا ، مما يمنحه ميزة).
  • لا يزال يتعين عليك إدارة المعلمات بنفسك (توليد الملح وتخزينه ، وتشفير عدد التكرار.). يوجد ترميز قياسي لمعلمات PBKDF2 ولكنه يستخدم ASN.1 لذا سيتجنبه معظم الأشخاص إذا أمكنهم ذلك (قد يكون من الصعب التعامل مع ASN.1 لغير الخبراء).

الوحدة تعني فقط 1 ، لذلك من المفترض أنهم قاموا بتطبيع قيمهم بحيث يتم جمعها جميعًا إلى 1 بدلاً من أيًا كان مجموعهم "الطبيعي". يمكنني تخيل بعض مخططات التطبيع المتخصصة ، ولكن يتم ذلك عادةً عن طريق القسمة ، وهذا ما أفترضه في حالة عدم وجود وصف أكثر تفصيلاً. إذا تم تطبيعهم بحيث تم جمع القيم إلى 100 بدلاً من ذلك ، فسيتم التعبير عنها كنسبة مئوية.

لنفترض أن هناك مادة مصنوعة من ثلاث مواد كيميائية: 5 لتر من مادة كيميائية أ ، 2 لتر من مادة كيميائية ب ، 3 لتر من مادة كيميائية ج. يمكنك إجراء تطبيع مماثل وتقول إن كل لتر من المادة يحتوي على 0.5 لتر من أ ، و 0.2 لتر من ب ، و 0.3 لتر من C (تم تقسيم كل قيمة على 10 ، المجموع ، لذا فإن مجموع القيم معًا يساوي واحدًا). إذا قمت بالتطبيع إلى 100 بدلاً من الوحدة ، فيمكنك أيضًا أن تقول أن المادة 50٪ أ و 20٪ ب و 30٪ ج.


إنها تختلف بشكل أساسي في وظيفة الارتباط.

في الاختبار: $ Pr (Y = 1 mid X) = Phi (X ' beta) $ (ملف pdf العادي التراكمي)

بطريقة أخرى ، اللوجيستية لها ذيول مسطحة قليلاً. على سبيل المثال ، يقترب منحنى الاختبار من المحاور بسرعة أكبر من منحنى السجل.

اللوغاريتم تفسير أسهل من الاختبار. يمكن تفسير الانحدار اللوجستي على أنه احتمالات تسجيل نماذج (أي أولئك الذين يدخنون> 25 سيجارة في اليوم هم أكثر عرضة للوفاة قبل سن 65 عامًا بست مرات). عادة ما يبدأ الناس في النمذجة مع لوجيت. يمكنك استخدام قيمة الاحتمالية لكل نموذج لاتخاذ قرار بشأن السجل مقابل الاحتمال.

يمكن اعتبار النموذج الخطي القياسي (على سبيل المثال ، نموذج الانحدار البسيط) على أنه يتكون من "جزأين". هذه تسمى المكون الهيكلي و ال مكون عشوائي. على سبيل المثال:
$ Y = beta_0 + beta_1X + varepsilon text varepsilon sim mathcal(0، sigma ^ 2) $ أول مصطلحين (أي $ beta_0 + beta_1X $) يشكلان المكون الهيكلي ، و $ varepsilon $ (الذي يشير إلى مصطلح خطأ موزع بشكل طبيعي) هو المكون العشوائي. عندما لا يتم توزيع متغير الاستجابة بشكل طبيعي (على سبيل المثال ، إذا كان متغير الاستجابة ثنائيًا) ، فقد لا يكون هذا الأسلوب صالحًا. تم تطوير النموذج الخطي المعمم (GLiM) لمعالجة مثل هذه الحالات ، ونماذج اللوغاريتم والاحتمالية هي حالات خاصة من GLiMs المناسبة للمتغيرات الثنائية (أو متغيرات الاستجابة متعددة الفئات مع بعض التعديلات على العملية). يتكون GLiM من ثلاثة أجزاء ، أ المكون الهيكلي، أ وظيفة الارتباط، وأ توزيع الاستجابة. على سبيل المثال:
$ g ( mu) = beta_0 + beta_1X $ هنا $ beta_0 + beta_1X $ مرة أخرى هو المكون الهيكلي ، و $ g () $ دالة الارتباط ، و $ mu $ هو وسيلة لتوزيع الاستجابة الشرطية عند a نقطة معينة في الفضاء المتغير. الطريقة التي نفكر بها في المكون الهيكلي هنا لا تختلف حقًا عن الطريقة التي نفكر بها في النماذج الخطية القياسية في الواقع ، فهذه إحدى المزايا العظيمة لـ GLiMs. نظرًا لأن التباين في العديد من التوزيعات هو دالة للمتوسط ​​، حيث يتلاءم مع الوسط الشرطي (ونظرًا لأنك قد حددت توزيع الاستجابة) ، فقد حسبت تلقائيًا التناظرية للمكون العشوائي في نموذج خطي (ملاحظة: يمكن أن يكون هذا أكثر تعقيدًا من الناحية العملية).

وظيفة الارتباط هي المفتاح لـ GLiMs: نظرًا لأن توزيع متغير الاستجابة غير طبيعي ، فهو ما يتيح لنا توصيل المكون الهيكلي بالاستجابة - إنه `` يربط '' بهم (ومن هنا الاسم). إنه أيضًا مفتاح سؤالك ، نظرًا لأن logit و probit عبارة عن روابط (كما أوضحvinux) ، وسيسمح لنا فهم وظائف الارتباط باختيار وقت استخدام أي منهما بذكاء. على الرغم من أنه يمكن أن يكون هناك العديد من وظائف الارتباط التي يمكن أن تكون مقبولة ، فغالبًا ما تكون هناك وظيفة خاصة. دون الرغبة في التعمق في الأعشاب الضارة (يمكن أن يصبح هذا تقنيًا للغاية) ، لن يكون المتوسط ​​المتوقع ، $ mu $ ، بالضرورة نفس الشيء من الناحية الرياضية مثل توزيع الاستجابة معلمة الموقع الأساسية وظيفة الارتباط التي لا تساويهم هي وظيفة الارتباط الكنسي. ميزة هذا "هو وجود حد أدنى من الإحصاء الكافي لـ $ beta $" (الألمانية Rodriguez). الارتباط الأساسي لبيانات الاستجابة الثنائية (بشكل أكثر تحديدًا ، التوزيع ذي الحدين) هو اللوغاريتم. ومع ذلك ، هناك الكثير من الوظائف التي يمكنها تعيين المكون الهيكلي على الفاصل $ (0،1) $ ، وبالتالي يكون الاحتمال مقبولًا أيضًا ، ولكن هناك أيضًا خيارات أخرى يتم استخدامها في بعض الأحيان (مثل السجل التكميلي log، $ ln (- ln (1- mu)) $ ، غالبًا ما تسمى "cloglog"). وبالتالي ، هناك الكثير من وظائف الارتباط المحتملة ويمكن أن يكون اختيار وظيفة الارتباط مهمًا للغاية. يجب أن يتم الاختيار بناءً على مزيج من:

  1. معرفة توزيع الاستجابة ،
  2. اعتبارات نظرية ، و
  3. ملاءمة تجريبية للبيانات.

بعد تغطية القليل من الخلفية المفاهيمية اللازمة لفهم هذه الأفكار بشكل أكثر وضوحًا (سامحني) ، سأشرح كيف يمكن استخدام هذه الاعتبارات لتوجيه اختيارك للرابط. (اسمحوا لي أن أشير إلى أنني أعتقد أن تعليق @ David يجسد بدقة سبب اختيار الروابط المختلفة في التمرين.) لتبدأ ، إذا كان متغير الاستجابة الخاص بك هو نتيجة تجربة برنولي (أي $ أو $ 1) ، فسيكون توزيع الاستجابة الخاص بك ذو الحدين ، وما تقوم بنمذجه في الواقع هو احتمال أن تكون الملاحظة $ 1 $ (أي $ pi (Y = 1) $). نتيجة لذلك ، ستعمل أي دالة تقوم بتعيين خط الرقم الحقيقي ، $ (- infty ، + infty) $ ، إلى الفاصل الزمني $ (0،1) $.

من وجهة نظر نظريتك الموضوعية ، إذا كنت تفكر في المتغيرات المشتركة على أنها مباشرة مرتبطًا باحتمالية النجاح ، فعادة ما تختار الانحدار اللوجستي لأنه الرابط الأساسي. ومع ذلك ، ضع في اعتبارك المثال التالي: يُطلب منك نموذج high_Blood_Pressure كدالة لبعض المتغيرات المشتركة. يتم توزيع ضغط الدم نفسه بشكل طبيعي بين السكان (لا أعرف ذلك في الواقع ، ولكن يبدو أنه معقول للوهلة الأولى) ، ومع ذلك ، فقد قام الأطباء بتقسيمه خلال الدراسة (أي أنهم سجلوا فقط "ضغط دم مرتفع" أو "طبيعي" ). في هذه الحالة ، يفضل أن يكون الاختبار المسبق أفضل لأسباب نظرية. هذا ما تعنيهElvis بعبارة "تعتمد نتيجتك الثنائية على متغير غاوسي مخفي". اعتبار آخر هو أن كلا من اللوغاريتم والاحتمال متماثل، إذا كنت تعتقد أن احتمال النجاح يرتفع ببطء من الصفر ، ولكن بعد ذلك يتناقص التدريجي بسرعة أكبر مع اقترابه من واحد ، فإن cloglog مطلوب ، وما إلى ذلك.

أخيرًا ، لاحظ أنه من غير المحتمل أن يكون التوافق التجريبي للنموذج مع البيانات مفيدًا في اختيار ارتباط ، ما لم تختلف أشكال وظائف الارتباط المعنية اختلافًا جوهريًا (منها ، لا يختلف اللوغاريتم والاحتمال). على سبيل المثال ، ضع في اعتبارك المحاكاة التالية:

حتى عندما نعلم أن البيانات قد تم إنشاؤها بواسطة نموذج احتمالي ، ولدينا 1000 نقطة بيانات ، فإن نموذج الاحتمالية ينتج فقط 70 ٪ من الوقت ، وحتى ذلك الحين ، غالبًا بكمية تافهة. ضع في اعتبارك التكرار الأخير:

والسبب في ذلك هو ببساطة أن وظائف الارتباط اللوغاريتمي والاحتمالي تنتج مخرجات متشابهة جدًا عند إعطاء نفس المدخلات.

دالتا logit و probit متطابقتان عمليًا ، باستثناء أن logit يكون بعيدًا قليلاً عن الحدود عندما `` يتحولان إلى الزاوية '' ، كما ذكرvinux. (لاحظ أنه للحصول على السجل والاحتمال للمحاذاة على النحو الأمثل ، يجب أن يكون $ beta_1 $ الخاص بالسجل $ حوالي 1.7 $ ضعف قيمة الانحدار المقابل للاحتمال. بالإضافة إلى ذلك ، كان بإمكاني تغيير سجل الانسداد قليلاً بحيث ستوضع فوق بعضها البعض أكثر ، لكنني تركتها على الجانب لإبقاء الشكل أكثر قابلية للقراءة.) لاحظ أن cloglog غير متماثل في حين أن الآخرين ليسوا يبدأون في الابتعاد عن الصفر في وقت سابق ، ولكن بشكل أبطأ ، ويقترب إلى 1 ثم يستدير بشكل حاد.

يمكن قول بضعة أشياء أخرى حول وظائف الارتباط. أولاً ، بالنظر إلى تطابق وظيفي ($ g ( eta) = eta $) كدالة ارتباط تسمح لنا بفهم النموذج الخطي القياسي كحالة خاصة للنموذج الخطي المعمم (أي ، توزيع الاستجابة طبيعي ، والرابط هو وظيفة الهوية ). من المهم أيضًا التعرف على أنه مهما كان التحويل الذي ينشئه الارتباط يتم تطبيقه بشكل صحيح على ملف معامل يحكم توزيع الاستجابة (أي $ mu $) ، وليس الاستجابة الفعلية البيانات. أخيرًا ، لأنه من الناحية العملية ليس لدينا أبدًا المعلمة الأساسية للتحويل ، في مناقشات هذه النماذج ، غالبًا ما يتم ترك ما يعتبر الرابط الفعلي ضمنيًا ويتم تمثيل النموذج بواسطة معكوس من وظيفة الارتباط المطبقة على المكون الهيكلي بدلاً من ذلك. هذا هو:
$ mu = g ^ <-1> ( beta_0 + beta_1X) $ على سبيل المثال ، عادةً ما يتم تمثيل الانحدار اللوجستي: $ pi (Y) = frac < exp ( beta_0 + beta_1X)> <1+ exp ( beta_0 + beta_1X)> $ بدلاً من: $ ln left ( frac < pi (Y)> <1- pi (Y)> right) = beta_0 + beta_1X $

للحصول على نظرة عامة سريعة وواضحة ، ولكن صلبة ، عن النموذج الخطي المعمم ، انظر الفصل 10 من Fitzmaurice، Laird، & amp Ware (2004) ، (الذي استندت إليه لأجزاء من هذه الإجابة ، على الرغم من أن هذا هو تكيفي الخاص لذلك. - وغيرها - مادية ، أي أخطاء ستكون مني). لمعرفة كيفية ملاءمة هذه النماذج في R ، تحقق من الوثائق الخاصة بالوظيفة؟ glm في الحزمة الأساسية.

(تمت إضافة ملاحظة أخيرة لاحقًا :) أسمع أحيانًا أشخاصًا يقولون إنه لا يجب عليك استخدام الاختبار ، لأنه لا يمكن تفسيره. هذا ليس صحيحًا ، على الرغم من أن تفسير الإصدارات التجريبية أقل سهولة. مع الانحدار اللوجستي ، يرتبط تغيير وحدة واحدة في $ X_1 $ بتغيير $ beta_1 $ في احتمالات "النجاح" (بدلاً من ذلك ، تغيير $ exp ( beta_1) $ - أضعاف في الاحتمالات) ، الكل آخر يكون متساويا. مع وجود اختبار ، سيكون هذا تغييرًا في $ beta_1 text <> z

الخامس الخلاصة

... مدينة ليست في مستواها الأساسي قابلة للتحسين. تنبع ديناميكية المدينة من عدم كفاءتها ، من تصادم الناس والأفكار بشكل غير متوقع. (بادجر ، 2018)

المقتطف أعلاه مأخوذ من أ نيويورك تايمز مقالة تصف محاولة عالم التكنولوجيا لتحسين المدن من خلال تحسين وظائفها ، فهي تعيد صياغة اقتباس من الأستاذ نيكولاس دي مونشو في جامعة كاليفورنيا في بيركلي والذي يذكرنا بأن الكفاءة مبالغ فيها. يعني السعي لتحقيق الكفاءة في الوقت الفعلي أننا نحاول تحسين مكونات الأنظمة المعقدة التي لا نفهمها تمامًا - وقد نفهمها بشكل أقل بسبب محاولاتنا. المدينة ليست آلة يتم هندستها بسرعات عالية: فالمدينة هي نظام بيئي معقد من الشبكات والتدفقات (Batty، 2012، 2013b). البيانات الجغرافية السريعة هي عامل تسريع قوي يجب تطبيقه فقط على هذا النظام البيئي بطريقة حكيمة وتمييزية.

إن التحدي الحقيقي الذي يواجه البشرية لا يكمن في تسريع تدفق الأشخاص والمواد والطاقة عبر المدن بل في إبطائه (تاونسند ، 2013). تتمثل الخطوة الأولى في التوقف عن اعتبار الاحتكاك عدوًا يجب هزيمته: يمكن أن يكون الاحتكاك صديقًا (Miller، 2017b). في تيرا نوفا: العالم الجديد بعد النفط والسيارات والضواحييصف إيريك ساندرسون (2013) رؤية لتنظيم المدينة على أساس المبادئ البيئية التي تتبنى الاحتكاكات الجيدة وتقلل من الاحتكاكات السيئة. الاحتكاكات الجيدة هي تلك الموجودة في الروابط بين الأنظمة الطبيعية والأنظمة البشرية حيث تترك الموارد (بما في ذلك الأرض) العالم الطبيعي وتدخل النفايات مرة أخرى. الاحتكاكات السيئة هي تلك التي تبطئ التبادلات والابتكار داخل الأنظمة البشرية. كما أن الاحتكاك المادي أمر سيء ، ويجب تجنبه باستبدال الطرق بالسكك الحديدية. سواء قبلت تفاصيل رؤيته أم لا ، يوضح ساندرسون أن هناك طرقًا يمكننا من خلالها تنظيم الأنظمة البشرية بخلاف السعي الذي لا جدال فيه إلى عالم سريع وخالٍ من الاحتكاك.


ما مدى دقة GPS لقياس السرعة؟

كما هو الحال مع تحديد المواقع ، تعتمد دقة سرعة GPS على العديد من العوامل.

تزود الحكومة إشارة GPS في الفضاء بمتوسط ​​عالمي لخطأ معدل نطاق المستخدم (URRE) يبلغ 0.006 جنيه / ثانية خلال أي فاصل زمني مدته 3 ثوانٍ ، مع احتمال 95٪.

يجب دمج هذا المقياس مع عوامل أخرى خارجة عن سيطرة الحكومة ، بما في ذلك هندسة الأقمار الصناعية ، وانسداد الإشارة ، والظروف الجوية ، وميزات / جودة تصميم جهاز الاستقبال ، لحساب دقة سرعة جهاز استقبال معين.


3 إجابات 3

أحد العوامل المهمة هو خصوبة التربة:

تربة جافا شديدة الخصوبة بسبب التخصيب الدوري بالرماد البركاني.

على النقيض من ذلك ، مع جزيرتين إندونيسيتين كبيرتين قريبتين بورنيو (مشتركة مع بروناي وماليزيا) وسومطرة:

بورنيو ، ثالث أكبر جزيرة في العالم ، بها تربة مثالية للغابات المطيرة: ضحلة وفقيرة بالمغذيات. أدت وفرة الأمطار في هذه النظم البيئية القديمة إلى تسرب التربة لملايين السنين.

على عكس جاوة المكتظة بالسكان ، لا تزال جزيرة سومطرة المجاورة توفر احتياطيات ضخمة من الأراضي غير المستخدمة. ومع ذلك ، لا يمكن اعتبار كل هذه الاحتياطيات على أنها إمكانات زراعية حقيقية ، على سبيل المثال. لمشاريع إعادة التوطين. غالبًا ما تكون التربة الفقيرة معوقًا زراعيًا على وجه الخصوص. إلى جانب خصوبة التربة ، يجب مراعاة الغطاء النباتي الموجود. وهكذا ، على سبيل المثال ، فإن ما يسمى بـ & quotalang alang grass savannas & quot بشكل عام يُظهر إمكانات أفضل من مناطق الغابات ، في حين أن معظم المستنقعات غير مناسبة إلى حد ما للتنمية الزراعية.

(لا أعتقد أنه من المنطقي مقارنة جافا بجزر مثل هونشو أو مدغشقر الموجودة في بلدان أخرى ذات تاريخ مختلف تمامًا.)

السبب الأساسي فيما يتعلق بأجزاء أخرى من آسيا الاستوائية هو التبني المبكر لزراعة الأرز الرطب في جافا. يشير جريج إلى أن الأماكن الوحيدة في آسيا التي شهدت كثافة سكانية أكبر في أواخر القرن التاسع عشر كانت الصين واليابان. الأرز الرطب هو مجرد شكل من أشكال الزراعة المنتجة بشكل مثير للدهشة ، خاصة بالمعايير التقليدية ، قبل عصر الأسمدة الاصطناعية.

اليابان حالة مختلفة. لقد تجاوز عدد سكان جاوة عدد سكان اليابان مؤخرًا فقط ، ويرجع ذلك إلى أن اليابان لديها بعض من أدنى المعدلات معدلات الخصوبة فى العالم. لا تزال Java في مرحلة مبكرة من تحولها الديموغرافي ، ولكن بمرور الوقت يتباطأ نموها السكاني تدريجيًا.

في الحجم الكلاسيكي لكليفورد غيرتز الانخراط الزراعي: عمليات التغيير البيئي في إندونيسيا (1963) ، يجادل المؤلف بأن الشكل الجاوي لزراعة الأرز الرطب لديه قدرة عالية جدًا على "استيعاب العمالة". بينما تم انتقاد وجهة نظر غيرتز - لإجراء مناقشة مفيدة ، راجع Wood (2020) ، الفصل 6 (المعاينة متاحة على كتب Google) - إنها نقطة انطلاق جيدة للإجابة على سؤالك. يكتب وود:

من الأساسي لوجهة نظر غيرتز أن النظم الزراعية المختلفة لها قدرات مختلفة لامتصاص العمالة وانحلالها. وفقًا لجيرتز ، تتمتع زراعة الأرز الرطب كما هو مُمارس في شرق وجنوب شرق آسيا بأعلى قدرة على استيعاب العمالة من أي شكل من أشكال الزراعة التقليدية.

وبالتالي ، فإن السمات الخاصة لأنظمة زراعة الأرز الرطب في المناطق الاستوائية وشبه الاستوائية تسمح لهذه الأنظمة بدعم ، وفي الواقع في وجهات نظر بعض المؤلفين. الطلب، كثافة سكانية عالية. توجد أنظمة أرز رطبة عالية الكثافة وعالية الكثافة في جميع أنحاء جنوب وجنوب شرق آسيا.

ومع ذلك ، كما لاحظ المستجيبون الآخرون لهذا السؤال ، فإن خصائص البيئة المادية هي أيضًا عوامل حاسمة في إمكانية وجود نظام أرز رطب عالي الكثافة. ستؤثر درجات الحرارة الموسمية المتزايدة وهطول الأمطار على الإنتاجية المحتملة ، ولكن في الرياح الموسمية الاستوائية والمعتدلة في آسيا ، ربما تكون خصوبة التربة أكثر أهمية. لذا فإن أفضل الأمثلة على أنظمة الأرز عالية الكثافة توجد ليس فقط في التربة البركانية الفتية الخصبة في جاوة ، ولكن أيضًا على طول وديان الأنهار الرئيسية والدلتا في المنطقة ، على سبيل المثال ، ميكونغ ، الأحمر ، تشاو فرايا ، إيراوادي ، بيرل ، يانغتسي والغانج وفي الوديان البركانية الخصبة ولكن الضيقة في اليابان. كما هو مذكور أعلاه ، الجزر الأخرى التي ذكرتها:

مدغشقر وبورنيو وسولاويزي وهونشو (اليابان) وسريلانكا

تتميز بجيولوجيا أقدم وأكثر تعقيدًا مع تربة أقل خصوبة بشكل ملحوظ ، وفي حالة اليابان ، توجد مناطق كبيرة ذات مناخ معتدل بارد إلى بارد حيث كانت زراعة الأرز تقتصر على محصول واحد سنويًا ، إن وجد.


الحواشي

من الواضح أنه يمكن ترجمة الملفات النصية إلى أرقام وبهذه الطريقة يتم تخزينها ونقلها. لا يمكن معالجة الملفات النصية إلكترونيًا؟ مرة أخرى ، يجب أن تكون الإجابة نعم ، بشرط ما يعنيه المرء بالمعالجة. لقد تحسنت قدرة خوارزميات الكمبيوتر على معالجة وتوليد الكلام (النص) بشكل كبير منذ أن ناقشنا لأول مرة المعلومات الناعمة والصلبة. ما إذا كان يمكن تفسيره وترميزه في درجة رقمية (أو درجات) هو سؤال أكثر صعوبة. يمكن دائمًا إنشاء نتيجة رقمية. السؤال هو ما مقدار المعلومات القيمة المفقودة في هذه العملية. نسمي هذه العملية تصلب المعلومات ، وسنناقشها أدناه.

تعتبر إيرادات مبيعات الشركة أو عائد أسهمها مثالاً على المعلومات الصعبة. هناك اتفاق واسع حول ما يعنيه أن تكون مبيعات الشركة 10 ملايين دولار العام الماضي أو أن سعر سهم الشركة قد ارتفع بنسبة 10٪. ومع ذلك ، إذا قلنا أن مالك الشركة جدير بالثقة ، فسيكون هناك اتفاق أقل حول ما يعنيه هذا وسبب أهميته. قد تختلف تعريفات الجدارة بالثقة بين الوكلاء وقد يكون السياق الذي يتم من خلاله تقييم الجدارة بالثقة مناسبًا.

هذا التمييز يذكرنا بالاختلاف بين النهج الذي نتخذه عندما نقوم بتدريس الاقتصاد القياسي للخريجين في السنة الأولى والطريقة التي يتم بها إجراء البحث التجريبي في الممارسة العملية. في الاقتصاد القياسي 101 ، نفترض أننا نعرف المتغير التابع والمتغيرات المستقلة والشكل الوظيفي. المجهول الوحيد هو القيمة الدقيقة للمعاملات. في مشروع بحثي فعلي ، لدينا مقدمات حول العلاقات بين المفاهيم الاقتصادية المهمة ، لكننا لا نعرف كيف نقيس بدقة المفاهيم الكامنة وراء المتغيرات المستقلة والمستقلة ولا الشكل الوظيفي. فقط بعد جمع البيانات وفحص النتائج الأولية ، نفهم كيفية ارتباط المتغيرات. هذا يقودنا إلى تعديل فرضيتنا وغالبًا ما يتطلب جمع بيانات إضافية أو تغيير في تفسيرنا للبيانات. تساعدنا عملية البحث في رؤية وفهم السياق المفقود.

مثال نموذجي هو موظف القرض القائم على العلاقات. لمسؤول القرض تاريخ مع المقترض ، وبناءً على عدد كبير من جهات الاتصال الشخصية ، يكون لديه انطباع عن صدق المقترض وجدارته الائتمانية واحتمالية تخلفه عن السداد. بناءً على وجهة النظر هذه للمقترض وخبرة موظف القرض ، تتم الموافقة على القرض أو رفضه. يقدم Uzzi and Lancaster (2003) أوصافًا تفصيلية للتفاعلات بين المقترضين ومسؤولي القروض.

في دراسة Bikhchandani و Hirshleifer و Welch (1992) للشلالات المعلوماتية ، قاموا بنمذجة قرارات متسلسلة يرى فيها الوكلاء القرارات (الثنائية) للوكلاء السابقين ، ولكن ليس المعلومات التي تم اتخاذ القرار بناءً عليها. يؤدي هذا التقليل (تصلب) المعلومات إلى تجاهل الوكلاء لمعلوماتهم (الناعمة) واتباع الحشد.

إن وصف المؤلفين لأسواق الائتمان التجاري خلال هذه الفترة مشابه بشكل لافت للنظر لوصف Nocera (2013) لسوق الإقراض الاستهلاكي في الولايات المتحدة في الخمسينيات من القرن الماضي.

مقدمة إلى Dun and Bradstreet ، تم تأسيس الوكالة التجارية في عام 1841 (Carruthers and Cohen 2010b). تمهيدًا لمجلة Standard and Poor’s ، تاريخ السكك الحديدية والقنوات في الولايات المتحدة على يد هنري بور ، تأسست في عام 1860.

Carruthers and Cohen (2010b، pp. 5–6) يعيدون صياغة كوهين (1998) بالقول ، "... ما دخل في تقييمات الائتمان كان عبارة عن مجموعة متغيرة وغير منهجية من الحقائق والأحكام والشائعات حول شركة وشخصية مالكها والمعاملات التجارية والأسرة والتاريخ…. ما جاء هو تصنيف رسمي ومنهجي وقابل للمقارنة للجدارة الائتمانية .... ".

بدأ CRSP بسؤال من لويس إنجل ، نائب الرئيس في Merrill Lynch و Pierce و Fenner و Smith. أراد أن يعرف العائد على المدى الطويل من الأسهم. التفت إلى البروفيسور جيمس لوري في جامعة شيكاغو ، الذي لم يكن يعرف أي منهما ولكنه كان على استعداد للبحث عنهما (للحصول على منحة قدرها 50000 دولار). أدت عملية الاكتشاف إلى إنشاء قاعدة بيانات إرجاع مخزون CRSP. يوضح عدم معرفة محترفي الاستثمار أو التمويل الأكاديمي الإجابة على هذا السؤال إلى أي مدى وصلنا بالاعتماد على المعلومات الصعبة ، مثل عوائد الأسهم. وصف البروفيسور لوري حالة البحث قبل CRSP في خطابه في فيلادلفيا عام 1965: "حتى وقت قريب كان كل هذا العمل تقريبًا من قبل أشخاص يعرفون الكثير عن سوق الأوراق المالية والقليل جدًا عن الإحصائيات. في حين أن هذا المزيج من المعرفة والجهل ليس من المرجح أن يكون عقيمًا مثل العكس - أي التطور الإحصائي المقترن بالجهل بمجال التطبيق - إلا أنه فشل في إنتاج الكثير من القيمة ". بالإضافة إلى CRSP ، يتحدث عن مجموعة بيانات جديدة أخرى: Compustat (تم بيعها بواسطة Standard Statistics Corporation) ، والتي تحتوي على 60 متغيرًا من بيان الدخل والميزانية العمومية للشركة.

بالنسبة لقروض الأعمال الصغيرة ، يكون حجم الرسوم مستقلاً عن حجم القرض. وبالتالي ، فإن النسبة المئوية للرسوم تنخفض مع حجم القرض (Petersen and Rajan 1994). يمكن أن يكون خفض تكاليف المعاملات ، خاصة من خلال التسليم الرقمي والأتمتة ، مهمًا بشكل خاص في إقراض التمويل الأصغر ، حيث تكون مبالغ القروض صغيرة جدًا (Karlan et al. 2016).

يمكن أن تعمل السببية أيضًا في الاتجاه المعاكس. على سبيل المثال ، تؤدي المنافسة الأكبر ، التي يمكن أن تنشأ عن إلغاء القيود ، إلى زيادة الضغط لخفض التكاليف وبالتالي تحويل عملية الإنتاج إلى الاعتماد بشكل أكبر على المعلومات الصعبة.

تعتبر قروض الرهن العقاري عالية المخاطر أقل توحيدًا وأكثر حساسية للمعلومات من الرهون العقارية العادية ، لأنه ، في بعض الأحيان ، لا يتمكن المقترضون من الإفصاح الكامل عن دخلهم (Mayer ، Pence ، and Sherlund 2009).

يرى Karolyi (2017) أن العلاقة تكمن مع الأفراد وليس الشركات. بعد التغييرات الخارجية في القيادة (وفاة أو تقاعد رئيس تنفيذي) ، تزداد احتمالية تحول الشركات إلى مقرضين تربطهم علاقة الرئيس التنفيذي الجديد (انظر أيضًا Degryse وآخرون 2013). هذا هو أحد الأسباب التي تجعل الشركات التي تعتمد على المعلومات اللينة في تأمين رعاية رأس المال للديون حول هشاشة البنوك التي تقترض منها (Schwert 2017).

باستخدام تجربة تحكم عشوائية ، قام بارافيسيني وشوار (2015) بتقييم اعتماد درجات الائتمان في بيئة إقراض الأعمال الصغيرة. وجدوا أن استخدام درجات الائتمان يحسن إنتاجية لجان الائتمان (على سبيل المثال ، يتم إنفاق وقت أقل على كل ملف).

يجادل فريدمان (1990) بأن هذه إحدى ميزات السوق مقابل الاقتصاد المخطط. يجادل بأن جميع المعلومات ذات الصلة بالمستهلك أو المنتج حول العرض النسبي للسلعة واردة في السعر. وبالتالي ، ليس من الضروري أن يعرف المورد ما إذا كان السعر قد ارتفع بسبب ارتفاع الطلب أو انخفاض العرض. يحتاج المورد فقط إلى معرفة أن السعر قد ارتفع ، وهذا سيحدد قراره بشأن مقدار زيادة الإنتاج. وصف فريدمان لاقتصاد السوق يصور بيئة معلومات صلبة كلاسيكية.

في الأزمة المالية لعام 2008 ، تخلف عدد كبير من الأوراق المالية ذات الدرجة الاستثمارية عن السداد. يشير حجم الافتراضات إلى وجود مشكلة في عملية التصنيف (انظر Benmelech and Dlugosz 2009a، 2009b). اقترح المراقبون في الصناعة والأكاديميون والحكومة المصادر المحتملة للمشكلة والحلول المحتملة. ومن المثير للاهتمام أن تجربة التخلف عن السداد كانت مختلفة تمامًا في سوق سندات الشركات (ديون الشركات العاملة) مقارنة بسوق التمويل المهيكل (على سبيل المثال ، RMBS). ارتفعت حالات التخلف عن السداد في سوق سندات الشركات في عام 2009 ، لكن الذروة لا تختلف بشكل كبير عن الذروة في فترات الركود السابقة (انظر Vazza and Kraemer 2016 ، الرسم البياني 1). كانت ذروة حالات التخلف عن السداد في سوق التمويل المهيكل في عام 2009 أكبر بشكل كبير (انظر South and Gurwitz 2015 ، الرسم البياني 1). تشير حقيقة أن انهيار سوق الإسكان قد أصاب الأوراق المالية المهيكلة بقوة أكبر إلى أن جزءًا من مشكلة عملية التصنيف يكمن بشكل فريد في قطاع التمويل المهيكل في السوق. بالنسبة لشركة تشغيل ، تعتبر التكلفة المنخفضة لرأس المال ميزة ، ولكنها ليست مصدرها الوحيد أو السائد للميزة التنافسية. بالنسبة لهيكل التوريق ، تعتبر التكلفة المنخفضة لرأس المال أحد مصادرها القليلة "للميزة التنافسية". وبالتالي ، قد يقوم البنك بتغيير الرهون العقارية التي يتم وضعها في عملية توريق إذا كان هذا التغيير سيزيد من جزء التوريق المصنف AAA وبالتالي خفض تكلفة رأس المال. من غير المحتمل أن تقوم شركة تصنيع السيارات بإغلاق المصانع أو إغلاق أحد الأقسام فقط لتحقيق تصنيف ائتماني أعلى. تكون تكاليف تغيير الأعمال لتحسين درجة الائتمان أعلى والفوائد (نسبيًا) أقل لشركة تشغيل. قد يكون هذا هو السبب في أننا رأينا عددًا أقل نسبيًا من حالات التخلف عن السداد في قطاع سندات الشركات مقارنة بقطاع التوريق. دفعت هذه المسألة وكالات التصنيف الائتماني إلى النظر في مقاييس تصنيف مختلفة للتمويل المهيكل مقابل ديون الشركات (Kimball and Cantor 2008).

Hu, Huang, and Simonov (2017) see the same behavior in the market for individual loans. The theoretical importance of nonlinearities in the mapping of inputs (hard information) to outputs (decisions) is discussed in Jensen (2003). In his examples, incentives to misstate one’s information are smaller if the payoff function is linear. Small changes in the reported information have only small changes in the manager’s payoff.

There may also be strategic reasons to avoid a transparent mapping between the numbers and the credit rating. The business model of credit rating agencies relies on market participants being unable to replicate the ratings at a lower cost than the agency. If the mapping were a direct function of easily accessible inputs (e.g., the income statement and balance sheet) and nothing else, some clever assistant finance or accounting professor would figure out the function. This is one reason that the early credit reporting agencies publicly released only a fraction of their information in the form of a credit score. For additional fees, users could review a more complete report ( Carruthers and Cohen 2010a, 2014).

Guiso, Sapienza, and Zingales (2013) find that borrowers feel less obligated to repay an underwater mortgage if the mortgage has been sold in the marketplace.

Brown et al. (2012) find that loan officers use discretion to smooth credit, but there is limited information in discretionary changes. Degryse et al. (2013) provide evidence that soft information helps predict defaults over public information (e.g., financial statements), but discretionary actions do not predict default. Gropp, Gruendl, and Guettler (2012) show that the use of discretion by loan officers does not affect the performance of the bank portfolio. Puri, Rocholl, and Steffen (2011) document the widespread use of discretion inside a German savings bank but find no evidence that loans approved based on discretion perform differently than those approved not based on discretion. Cerqueiro, Degryse, and Ongena (2011) find that discretion seems to be important in the pricing of loans but that it only plays a minor role in the decision to lend.

This is an imperfect solution when the loan officer has an incentive and the ability to manipulate the inputs, just as the borrower might. The loan officers in Berg, Puri, and Rocholl (2016) work for a bank that uses an internal credit score to evaluate loans. They show that loan officers repeatedly enter new values of the variables into the system until a loan is approved. Not only are they able to get loans approved that were originally rejected, but they also learn the model’s cutoffs and thus what is required for loan approval. These results suggest that even hard information decision-making algorithms, which are transparent and depend on data subject to the control of either participant (local decision maker or the target of the decision), are subject to the Lucas critique (see Section 2.4).

A variety of possible costs are embedded in the transmission of information in an organization. Theories of costly communication, where soft information may be more costly to communicate across hierarchies ( Becker and Murphy 1992 Radner 1993 Bolton and Dewatripont 1994) theories of loss of incentives to collect, process, and use soft information like in Aghion and Tirole (1997), because of the anticipation of being overruled by one’s superior and strategic manipulation of information like in Crawford and Sobel (1982) and Dessein (2002), offer three different, but related, explanations. In all these theories, those who send the information make it noisier and less verifiable if their preferences are not aligned with those who are receiving it and, ultimately, have the final authority to make the decision.

Rajan and Zingales (1998) argue that ownership is not the only way to allocate power in an organization. Another, and, in some cases, a better way, is through access. Access is the ability to work with or use a critical resource, though not necessarily a physical resource that can be owned. In financial institutions (and increasingly in other firms), this resource is often information.

Although these papers all examine geographical distance, they are different in nature. Petersen and Rajan (2002) document that distance between lenders and borrowers increased because of improvements in information technology. Degryse and Ongena (2005) study the relationship between the competitiveness of the lending market and the distance between the borrower, their lender, and other potential competitors (banks). Mian (2006) suggests that greater distance not only decreases the incentives of a loan officer to collect soft information but also makes it more costly to produce and communicate soft information. DeYoung, Glennon, and Nigro (2008) document the relationship between the use of hard information using credit scoring technologies and an increase in borrower-lender distances. Finally, Agarwal and Hauswald (2010) study the effects of distance on the acquisition and use of private information in informationally opaque credit markets. They show that borrower proximity facilitates the collection of soft information, which is reflected in the bank’s internal credit assessment.

Starting in the early eighties, the number of banks in the United States began declining by over 50%, with most of the fall occurring in the first decade ( Petersen and Rajan 2002, figure 4 Berger and Bouwman 2016, figure 8.1). The decline in the total number of banks is completely driven by the decline of small banks defined by those with gross total assets less than $1 billion. The number of large banks has grown. The decline in small banks is driven, in part, by the technology and the shift to hard information and also by deregulation (Strahan and Kroszner 1999). The growing reliance on hard information and automated decision-making and the associated cost savings created pressure to reduce regulations on bank expansion. In turn, diminishing regulatory restrictions raised the value of capturing cost savings by shifting to production processes that rely on hard information and enabled greater economies of scale.

Even in markets that we think are dominated by hard information and thus where we would expect distance not to be relevant, research has sometimes found a preference for local investments. Mutual fund managers tend to hold a higher concentration in shares of local firms, because access to soft information of local firms is cheaper ( Coval and Moskowitz 1999, 2001). The effect is strongest in small and highly levered firms.

If the local underwriters have soft information that nonlocal underwriters do not have, and they can thus sell the bonds at higher prices, they should be able to extract larger fees. Oddly, they do not. Local underwriters charge lower fees relative to nonlocal underwriting, suggesting that local competition limits their pricing power.

They use the measure of distance between banks and borrowers from Petersen and Rajan (2002) to classify whether industries are hard- or soft-information intensive. Industries where the distance between borrowers and lenders is larger are classified as hard information environments.

A plant may be located far away in terms of geographical distance, but monitoring may be easier when direct flights are available between the cities in which headquarters and plants are located.

Analogously, firms attempted to alter the financial information they reported in response to the introduction of credit ratings in an effort to increase their access to credit in the late nineteenth century ( Carruthers and Cohen 2010b, footnote 36).

The literature began by simply counting positive and negative words, which proved to be more complicated than one would have initially guessed. The language of finance is not as simple as we think ( Longhran and McDonald 2011). For example, the sentence “The Dell Company has 100 million shares outstanding” would have been classified as an extremely positive sentence by the early dictionaries, since “company,” “share,” and “outstanding” are coded as positive words (Engelberg 2008). The Hoberg and Phillips (2010) method is similar, but they are interested in a very different question. They use text-based analysis of firms’ 10-Ks to measure the similarities of firms involved in mergers and thus predict the success of the mergers. Mayew and Venkatachalam (2012) took this idea one step further and examined the information embedded in the tone of managers’ voices during earning calls.

Loss of information is not only due to the effect of hardening the information. A change in the compensation structure of agents may also affect the use of information. In a controlled experiment, Agarwal and Ben-David (2018) study the impact that changing the incentive structure of loan officers to prospect new applications has on the volume of approved loans and default rates. They find that after the change, loan officers start relying more on favorable hard information and ignoring unfavorable soft information. The results highlight how incentives dictate not just what information is collected but also what role it plays in the decision. Another form of loss of information is due to the portability of soft information. For example, Drexler and Schoar (2014) show that when loan officers leave, they generate a cost to the bank, because leaving affects the borrower-lender relationship. As the departing loan officers have no incentives to voluntarily transfer the soft information, borrowers are less likely to receive new loans from the bank in their absence.

Appearance also played a role in the early credit reports collected by the Mercantile Agency. The agency’s instructions to their agents stated “… give us your impressions about them, judging from appearances as to their probable success, amount of stock, habits, application to business, whether they are young and energetic or the reverse …” ( Carruthers and Cohen 2010b, p. 12).

Mollick (2014, p. 2) defines crowdfunding as “… the efforts by entrepreneurial individuals and groups … to fund their ventures by drawing on relatively small contributions from a relatively large number of individuals using the internet, without standard financial intermediaries.”

Participants contribute capital in exchange for a product or so they may participate in supporting an event or creative endeavor. The first is a form of trade credit (prepaying for a product) and in most examples is more akin to market research than equity funding, since the existence and the quality of the product are often uncertain.

Newman (2011) has raised the concern that “… crowdfunding could become an efficient, online means for defrauding the investing public … .”

Investors “… rely on highly visible (but imperfect) proxies for quality such as accumulated capital, formal education, affiliation with top accelerator programs, advisors, etc.” ( Catalini and Hui 2018, p. 1).

The Mercantile Agency, the precursor to Dun and Bradstreet’s, also worried about the tendency of some subscribers, who had purchased access to their reports, relying too heavily on the ratings, as opposed to visiting their offices and inspecting the underlying data ( Carruthers and Cohen 2010b).

The evidence that human brokers factor their client’s characteristics into the investment decision is not reassuring. A retail investor’s asset allocation significantly depends more on who their broker is (e.g., broker fixed effects) than the investors own characteristics (e.g., risk tolerance, age, financial knowledge, investment horizon, and wealth see Foerster et al. 2017).

Algorithms are written by humans, so they may embody the same behavioral biases that human advisors have ( O’Neil 2016, D’Acunto, Prabhala, and Rossi 2017) as well as the biases of those who design the algorithms or which may be inherent in the data ( O’Neil 2016).


شاهد الفيديو: مشكلة عدم تنفيذ امر الطباعة بالرغم من تعريفها adjust printer port when printing