ALFABETO GRIEGO. ECONOMÍA α (Alfa) Intercepto o Constante del Modelo: En modelos de regresión lineal, α representa el valor de la variable dependiente 𝑌 Y cuando todas las variables independientes 𝑋𝑖 son cero. Ejemplo: En la ecuación Y=α+βX+ϵ, 𝛼 es el intercepto. Parámetro de Sesgo: En modelos de series temporales, α puede representar un parámetro de tendencia o nivel inicial. β (Beta) Coeficiente de la Variable Independiente: En regresión lineal, 𝛽𝑖 mide el cambio esperado en la variable dependiente 𝑌 por cada unidad de cambio en la variable independiente 𝑋𝑖, manteniendo otras variables constantes. Ejemplo: En la ecuación 𝑌=𝛼+𝛽1𝑋1+𝛽2𝑋2+𝜖, 𝛽1 𝛽2 son coeficientes que indican la relación entre 𝑌 y 𝑋1, 𝑋2. Coeficiente Beta: En finanzas, 𝛽 mide la sensibilidad de un activo en relación con el mercado, utilizado en el modelo de valoración de activos financieros (CAPM). γ (Gamma) Parámetro de Efecto Moderador o Interacción: En modelos de regresión que incluyen términos de interacción, 𝛾 puede representar el efecto de la interacción entre variables independientes. Ejemplo: 𝑌=𝛼+𝛽1𝑋1+𝛽2𝑋2+𝛾(𝑋1⋅𝑋2) +𝜖 Parámetro de Ajuste: En algunos modelos de series temporales o funciones de producción, 𝛾 puede representar un coeficiente de ajuste o elasticidad. 𝛿 (Delta) Cambio en la Variable Dependiente: Representa una diferencia o cambio en la variable dependiente en análisis de diferencia en diferencias. Ejemplo: Δ𝑌=𝛿+𝛽Δ𝑋+𝜖 ϵ (Épsilon) Término de Error: Captura la variabilidad en 𝑌 que no puede ser explicada por los regresores 𝑋𝑖. Ejemplo: En 𝑌=𝛼+𝛽𝑋+𝜖, 𝜖 es el término de error que representa factores no observados o ruido aleatorio. Residuales: La diferencia entre los valores observados y los valores predichos por el modelo en una muestra. 𝜃 (Theta) Conjunto de Parámetros: En modelos más complejos como los modelos de máxima verosimilitud, 𝜃 puede representar un vector de parámetros a estimar. Ejemplo: 𝜃= (𝛼, 𝛽1, 𝛽2, …) 𝜆 (Lambda) Parámetro de Descuento o Regularización: En modelos de series temporales, 𝜆 puede representar un parámetro de descuento o suavización. En regularización de modelos, como en la regresión de cresta (ridge regression), 𝜆 controla el grado de penalización de los coeficientes. Ejemplo: β̂ =arg min ∑(Y − α − βX)2 + λ ∑ β2 . 𝜌 (Rho) Parámetro de Autocorrelación: En modelos de series temporales como AR (1), 𝜌 mide la autocorrelación entre los valores de la serie en periodos consecutivos. Ejemplo: En un modelo AR(1), 𝑌𝑡=𝜌𝑌𝑡−1+𝜖𝑡, 𝜌 es el coeficiente de autocorrelación 𝜎 (Sigma) Desviación Estándar: En regresión y otros modelos, 𝜎 representa la desviación estándar del término de error, indicando la dispersión de los residuos. Ejemplo: En modelos de regresión lineal, 𝑉𝑎𝑟(𝜖)=𝜎2. 𝜏 (Tau) Parámetro de Diferencia: En análisis de diferencia en diferencias, 𝜏 mide el efecto del tratamiento. Ejemplo: En Δ𝑌=𝜏+𝛽Δ𝑋+𝜖, 𝜏 representa el cambio promedio atribuible al tratamiento. 𝜙 (Phi) Parámetro de Serie Temporal: En modelos autorregresivos AR, 𝜙 representa los coeficientes de la serie temporal. Ejemplo: En un modelo AR (1), 𝑌𝑡=𝜙𝑌𝑡−1+𝜖𝑡. 𝜅 (Kappa) Coeficiente de Curvatura: En algunos modelos de crecimiento o de producción, 𝜅 puede representar un coeficiente de curvatura o elasticidad de escala. 𝜔 (Omega) Varianza o Error Estructural: En modelos de heterocedasticidad, 𝜔 puede representar varianza del término de error o la estructura de error. 𝜓 (Psi) Parámetro de Choque: En modelos con choques aleatorios, 𝜓 puede representar el impacto de un choque en el sistema. 𝜁 (Zeta) Error Estructural o Choque: En modelos estructurales, 𝜁 puede representar un término de error estructural.