Producción de voz De Wikipedia, la enciclopedia libre La producción del habla es el proceso por el cual los pensamientos se traducen en habla. Esto incluye la selección de palabras, la organización de formas gramaticales relevantes y luego la articulación de los sonidos resultantes por el sistema motor utilizando el aparato vocal. La producción del habla puede ser espontánea, como cuando una persona crea las palabras de una conversación, reactiva, como cuando nombra una imagen o lee en voz alta una palabra escrita, o imitativa, como en la repetición del habla. La producción de voz no es lo mismo que la producción de lenguaje, ya que el lenguaje también se puede producir manualmente por signos. En una conversación fluida ordinaria, las personas pronuncian aproximadamente cuatro sílabas, diez o doce fonemas y dos o tres palabras de su vocabulario (que puede contener de 10 a 100 mil palabras) cada segundo. [1] Los errores en la producción del habla son relativamente raros y ocurren a una tasa de aproximadamente una vez por cada 900 palabras en el habla espontánea. [2] Las palabras que comúnmente se hablan o aprenden temprano en la vida o que se imaginan fácilmente son más rápidas de decir que las que rara vez se dicen, se aprenden más adelante en la vida o son abstractas. [3] [4] Normalmente el habla se crea con la presión pulmonar proporcionada por los pulmones que genera sonido por fonación a través de la glotis en la laringe que luego es modificada por el tracto vocal en diferentes vocales y consonantes. Sin embargo, la producción del habla puede ocurrir sin el uso de los pulmones y la glotis en el habla alaríngea mediante el uso de las partes superiores del tracto vocal. Un ejemplo de tal discurso alaringeo es la charla del Pato Donald. [5] La producción vocal del habla puede estar asociada con la producción de gestos con las manos que actúan para mejorar la comprensibilidad de lo que se dice. [6] El desarrollo de la producción del habla a lo largo de la vida de un individuo comienza desde el primer balbuceo de un bebé y se transforma en un habla completamente desarrollada a la edad de cinco años. [7] La primera etapa del habla no ocurre hasta alrededor de la edad de un año (fase holofrástica). Entre las edades de un año y medio y dos años y medio, el bebé puede producir oraciones cortas (fase telegráfica). Después de dos años y medio, el bebé desarrolla sistemas de lemas utilizados en la producción del habla. Alrededor de cuatro o cinco los lemas del niño aumentan en gran medida; Esto mejora la producción del habla correcta del niño y ahora puede producir el habla como un adulto. Un adulto ahora desarrolla el habla en cuatro etapas: activación de conceptos léxicos, selección de lemas necesarios, codificación morfológica y fonológica del habla, y la palabra está codificada fonéticamente. [7] Tres etapas La producción del lenguaje hablado implica tres niveles principales de procesamiento: conceptualización, formulación y articulación. [1] [8] [9] El primero son los procesos de conceptualización o preparación conceptual, en los que la intención de crear un discurso vincula un concepto deseado con las palabras habladas particulares que se expresarán. Aquí se formulan los mensajes preverbales que especifican los conceptos a expresar. [10] La segunda etapa es la formulación en la que se crea la forma lingüística requerida para la expresión del mensaje deseado. La formulación incluye codificación gramatical, codificación morfofonológica y codificación fonética. [10] La codificación gramatical es el proceso de seleccionar la palabra o lema sintáctico apropiado. El lema seleccionado activa el marco sintáctico apropiado para el mensaje conceptualizado. La codificación morfo-fonológica es el proceso de descomponer las palabras en sílabas para ser producidas en el habla abierta. La silabificación depende de las palabras anteriores y siguientes, por ejemplo: I-com-pre-hend vs. I-com-pre-hen-dit. [10] La parte final de la etapa de formulación es la codificación fonética. Esto implica la activación de gestos articulatorios dependientes de las sílabas seleccionadas en el proceso morfo-fonológico, creando una partitura articulatoria a medida que se construye la expresión y se completa el orden de los movimientos del aparato vocal. [10] La tercera etapa de la producción del habla es la articulación, que es la ejecución de la puntuación articulatoria por los pulmones, la glotis, la laringe, la lengua, los labios, la mandíbula y otras partes del aparato vocal que resultan en el habla. [8] [10] Neurociencia El control motor para la producción del habla en personas diestras depende principalmente de áreas en el hemisferio cerebral izquierdo. Estas áreas incluyen el área motora suplementaria bilateral, la circunvolución frontal inferior posterior izquierda, la ínsula izquierda, la corteza motora primaria izquierda y la corteza temporal. [11] También hay áreas subcorticales comprometidas, como los ganglios basales y el cerebelo. [12] [13] El cerebelo ayuda a la secuenciación de las sílabas del habla en palabras rápidas, suaves y organizadas rítmicamente y expresiones más largas. [13] Trastornos Para las personas diestras, la mayor parte de la actividad de producción del habla ocurre en el hemisferio cerebral izquierdo. La producción del habla puede verse afectada por varios trastornos: Afasia Afasia anómica Apraxia del habla Aprosodia Trastorno del procesamiento auditivo Desorden Dispraxia verbal del desarrollo Disprosodia Habla infantil Ceceo Malapropismo Pronunciación incorrecta Trastorno del habla Error de voz Trastorno del sonido del habla Spoonerismo Tartamudez Historia de la investigación de producción de discurso Hasta finales de la década de 1960, la investigación sobre el habla se centró en la comprensión. A medida que los investigadores recopilaron mayores volúmenes de datos de error del habla, comenzaron a investigar los procesos psicológicos responsables de la producción de sonidos del habla y a contemplar posibles procesos para el habla fluida. [14] Los hallazgos de la investigación sobre errores del habla pronto se incorporaron a los modelos de producción del habla. La evidencia de los datos de error de voz apoya las siguientes conclusiones sobre la producción del habla. Algunas de estas ideas Ejemplos de errores de habla. El objetivo es lo que el orador pretendía decir. El error es lo que realmente dijo el orador. Estos errores han sido estudiados para aprender sobre la estructura de la producción del habla. incluyen: 1. El discurso se planifica con anticipación. [15] 2. El léxico está organizado semántica y fonológicamente. [15] Eso es por el significado y por el sonido de las palabras. 3. Se ensamblan palabras morfológicamente complejas. [15] Las palabras que producimos que contienen morfemas se juntan durante el proceso de producción del habla. Los morfemas son las unidades más pequeñas del lenguaje que contienen significado. Por ejemplo, "ed" en una palabra en tiempo pasado. 4. Los afijos y funtores se comportan de manera diferente a las palabras de contexto en lapsus de la lengua. [15] Esto significa que las reglas sobre las formas en que se puede usar una palabra probablemente se almacenen con ellas, lo que significa que generalmente cuando se cometen errores de habla, las palabras erróneas mantienen sus funciones y tienen sentido gramatical. 5. Los errores de habla reflejan el conocimiento de las reglas. [15] Incluso en nuestros errores, el habla no es absurda. Las palabras y oraciones que se producen en los errores del habla son típicamente gramaticales y no violan las reglas del idioma que se habla. Aspectos de los modelos de producción del habla Los modelos de producción de voz deben contener elementos específicos para ser viables. Estos incluyen los elementos a partir de los cuales se compone el habla, que se enumeran a continuación. Los modelos aceptados de producción de habla discutidos con más detalle a continuación incorporan estas etapas, ya sea explícita o implícitamente, y las que ahora están obsoletas o disputadas han sido criticadas por pasar por alto una o más de las siguientes etapas. [16] Los atributos de los modelos de voz aceptados son: a) una etapa conceptual donde el hablante identifica abstractamente lo que desea expresar. [16] b) una etapa sintáctica donde se elige un marco en el que se colocarán las palabras, este marco suele ser la estructura de la oración. [16] c) una etapa léxica donde se produce una búsqueda de una palabra basada en el significado. Una vez que se selecciona y recupera la palabra, la información sobre ella está disponible para el hablante que involucra fonología y morfología. [16] d) una etapa fonológica donde la información abstracta se convierte en una forma similar al habla. [16] e) Una etapa fonética donde se preparan instrucciones para ser enviadas a los músculos de la articulación. [16] Además, los modelos deben permitir mecanismos de planificación anticipada, un amortiguador y un mecanismo de monitoreo. Los siguientes son algunos de los modelos influyentes de producción del habla que explican o incorporan las etapas mencionadas anteriormente e incluyen información descubierta como resultado de estudios de errores del habla y otros datos de disfluencia,[17] como la investigación de la punta de la lengua. Modelo The Utterance Generator Model (1971) El modelo generador de expresiones fue propuesto por Fromkin (1971). [18] Se compone de seis etapas y fue un intento de explicar los hallazgos previos de la investigación del error del habla. Las etapas del modelo generador de expresiones se basaron en posibles cambios en las representaciones de una expresión en particular. La primera etapa es donde una persona genera el significado que desea transmitir. La segunda etapa implica que el mensaje se traduzca a una estructura sintáctica. Aquí, el mensaje recibe un esquema. [19] La tercera etapa propuesta por Fromkin es donde/cuando el mensaje adquiere diferentes acentuaciones y entonaciones basadas en el significado. La cuarta etapa sugerida por Fromkin se refiere a la selección de palabras del léxico. Después de que las palabras han sido seleccionadas en la Etapa 4, el mensaje se somete a la especificación fonológica. [20] La quinta etapa aplica reglas de pronunciación y produce sílabas que deben ser emitidas. La sexta y última etapa del Modelo Generador de Expresiones de Fromkin es la coordinación de los comandos motores necesarios para el habla. Aquí, las características fonéticas del mensaje se envían a los músculos relevantes del tracto vocal para que se pueda producir el mensaje deseado. A pesar del ingenio del modelo de Fromkin, los investigadores han criticado esta interpretación de la producción del habla. Aunque el modelo generador de expresiones tiene en cuenta muchos matices y datos encontrados por los estudios de errores de habla, los investigadores decidieron que todavía tenía espacio para mejorar. [21] [22] El modelo Garrett (1975) Un intento más reciente (que el de Fromkin) de explicar la producción del habla fue publicado por Garrett en 1975. [23] Garrett también creó este modelo compilando datos de error de voz. Hay muchas superposiciones entre este modelo y el modelo de Fromkin en el que se basó, pero agregó algunas cosas al modelo de Fromkin que llenaron algunos de los vacíos señalados por otros investigadores. Los modelos de Garrett Fromkin distinguen entre tres niveles: un nivel conceptual y un nivel de oración, y un nivel motor. Estos tres niveles son comunes a la comprensión contemporánea de la producción del habla. [24] Modelo de Dell (1994) En 1994,[25] Dell propuso un modelo de la red léxica que se convirtió en fundamental en la comprensión de la forma en que se produce el habla. [1] Este modelo de la red léxica intenta representar simbólicamente el léxico y, a su vez, explicar cómo las personas eligen las palabras que desean producir y cómo esas palabras deben organizarse en el habla. El modelo de Dell estaba compuesto por tres etapas, semántica, palabras y fonemas. Las palabras en la etapa más alta del modelo representan la categoría semántica. (En la imagen, las palabras que representan la categoría semántica son invierno, calzado, pies y nieve representan las categorías semánticas de bota y patín). El segundo nivel representa las palabras que hacen referencia a la categoría semántica (En la imagen, bota y patín). Y, el tercer nivel representa los fonemas (información silábica que incluye inicio, vocales y codas). [26] Modelo Levelt (1999) Esta es una interpretación del modelo de Dell. Las palabras en la parte superior representan la categoría semántica. El segundo nivel representa las palabras que denotan la categoría semántica. El tercer nivel representa los fonemas (información silábica que incluye inicio, vocales y codas). Levelt refinó aún más la red léxica propuesta por Dell. Mediante el uso de datos de error de voz, Levelt recreó los tres niveles en el modelo de Dell. El estrato conceptual, el nivel superior y más abstracto, contiene información que una persona tiene sobre ideas de conceptos particulares. [27] El estrato conceptual también contiene ideas sobre cómo los conceptos se relacionan entre sí. Aquí es donde ocurriría la selección de palabras, una persona elegiría qué palabras desea expresar. El siguiente, o nivel medio, el lema-estrato, contiene información sobre las funciones sintácticas de las palabras individuales, incluyendo el tiempo y la función. [1] Este nivel funciona para mantener la sintaxis y colocar las palabras correctamente en la estructura de la oración que tiene sentido para el hablante. [27] El nivel más bajo y final es el estrato de forma que, de manera similar al modelo de Dell, contiene información silábica. Desde aquí, la información almacenada a nivel de estrato de forma se envía a la corteza motora donde el aparato vocal se coordina para producir físicamente los sonidos del habla. Places of articulation The physical structure of the human nose, throat, and vocal cords allows for the productions of many unique sounds, these areas can be further broken down into places of articulation. Different sounds are produced in different areas, and with different muscles and breathing techniques.[28] Our ability to utilize these skills to create the various sounds needed to communicate effectively is essential to our speech production. Speech is a psychomotor activity. Speech between two people is a conversation - they can be casual, formal, factual, or transactional, and the language structure/ narrative genre employed Human vocal apparatus differs depending upon the context. Affect is a significant factor that used to produce speech controls speech, manifestations that disrupt memory in language use due to affect include feelings of tension, states of apprehension, as well as physical signs like nausea. Language level manifestations that affect brings could be observed with the speaker's hesitations, repetitions, false starts, incompletion, syntactic blends, etc. Difficulties in manner of articulation can contribute to speech difficulties and impediments.[29] It is suggested that infants are capable of making the entire spectrum of possible vowel and consonant sounds. IPA has created a system for understanding and categorizing all possible speech sounds, which includes information about the way in which the sound is produced, and where the sounds is produced.[29] This is extremely useful in the understanding of speech production because speech can be transcribed based on sounds rather than spelling, which may be misleading depending on the language being spoken. Average speaking rates are in the 120 to 150 words per minute (wpm) range, and same is the recommended guidelines for recording audiobooks. As people grow accustomed to a particular language they are prone to lose not only the ability to produce certain speech sounds, but also to distinguish between these sounds.[29] Articulation Articulation, often associated with speech production, is how people physically produce speech sounds. For people who speak fluently, articulation is automatic and allows 15 speech sounds to be produced per second.[30] An effective articulation of speech include the following elements – fluency, complexity, accuracy, and comprehensibility.[31] Fluency: Is the ability to communicate an intended message, or to affect the listener in the way that is intended by the speaker. While accurate use of language is a component in this ability, over-attention to accuracy may actually inhibit the development of fluency. Fluency involves constructing coherent utterances and stretches of speech, to respond and to speak without undue hesitation (limited use of fillers such as uh, er, eh, like, you know). It also involves the ability to use strategies such as simplification and gestures to aid communication. Fluency involves use of relevant information, appropriate vocabulary and syntax. Complexity: Speech where the message is communicated precisely. Ability to adjust the message or negotiate the control of conversation according to the responses of the listener, and use subordination and clausal forms appropriate per the roles and relationship between the speakers. It includes the use of sociolinguistic knowledge – the skills required to communicate effectively across cultures; the norms, the knowledge of what is appropriate to say in what situations and to whom. Accuracy: This refers to the use of proper and advanced grammar; subject-verb agreement; word order; and word form (excited/exciting), as well as appropriate word choice in spoken language. It is also the ability to self-correct during discourse, to clarify or modify spoken language for grammatical accuracy. Comprehensibility: This is the ability to be understood by others, it is related with the sound of the language. There are three components that influence one’s comprehensibility and they are: Pronunciation – saying the sounds of words correctly; Intonation – applying proper stress on words and syllables, using rising and falling pitch to indicate questions or statements, using voice to indicate emotion or emphasis, speaking with an appropriate rhythm; and Enunciation – speaking clearly at an appropriate pace, with effective articulation of words and phrases and appropriate volume. Development Incluso antes de producir un sonido, los bebés imitan expresiones faciales y movimientos. [32] Alrededor de los 7 meses de edad, los bebés comienzan a experimentar con sonidos comunicativos al tratar de coordinar la producción de sonido con la apertura y el cierre de la boca. Hasta el primer año de vida, los bebés no pueden producir palabras coherentes, sino que producen un balbuceo recurrente. El balbuceo permite al bebé experimentar con sonidos articulados sin tener que prestar atención al significado. Este balbuceo repetido inicia la producción inicial del habla. El balbuceo trabaja con la permanencia de objetos y la comprensión de la ubicación para apoyar las redes de nuestros primeros elementos léxicos o palabras. [7] El crecimiento del vocabulario del bebé aumenta sustancialmente cuando son capaces de entender que los objetos existen incluso cuando no están presentes. La primera etapa del habla significativa no ocurre hasta alrededor de la edad de un año. Esta etapa es la fase holofrástica. [33] La etapa holística se refiere a cuando el habla infantil consiste en una palabra a la vez (es decir, papá). La siguiente etapa es la fase telegráfica. En esta etapa, los bebés pueden formar oraciones cortas (es decir, papá sentado o mamá bebe). Esto ocurre típicamente entre las edades de un año y medio y dos años y medio. Esta etapa es particularmente notable debido al crecimiento explosivo de su léxico. Durante esta etapa, los bebés deben seleccionar y hacer coincidir las representaciones almacenadas de las palabras con la palabra objetivo perceptiva específica para transmitir significado o conceptos. [32] Con suficiente vocabulario, los bebés comienzan a extraer patrones de sonido y aprenden a descomponer las palabras en segmentos fonológicos, aumentando aún más el número de palabras que pueden aprender. [7] En este punto del desarrollo del habla de un bebé, su léxico consta de 200 palabras o más y son capaces de entender incluso más de lo que pueden hablar. [33] Cuando llegan a los dos años y medio su producción del habla se vuelve cada vez más compleja, particularmente en su estructura semántica. Con una red semántica más detallada, el bebé aprende a expresar una gama más amplia de significados, ayudando al bebé a desarrollar un complejo sistema conceptual de lemas. Around the age of four or five the child lemmas have a wide range of diversity, this helps them select the right lemma needed to produce correct speech.[7] Reading to infants enhances their lexicon. At this age, children who have been read to and are exposed to more uncommon and complex words have 32 million more words than a child who is linguistically impoverished.[34] At this age the child should be able to speak in full complete sentences, similar to an adult. See also FOXP2 KE family Neurocomputational speech processing Psycholinguistics Silent speech interface Speech perception Speech science References 1. Levelt, WJ (1999). "Models of word production" (http://www.columbia.edu/~rmk7/HC/HC_Read ings/Levelt.pdf) (PDF). Trends in Cognitive Sciences. 3 (6): 223–232. doi:10.1016/S13646613(99)01319-4 (https://doi.org/10.1016%2FS1364-6613%2899%2901319-4). PMID 10354575 (https://pubmed.ncbi.nlm.nih.gov/10354575). S2CID 7939521 (https://api.sem anticscholar.org/CorpusID:7939521). 2. Garnham, A, Shillcock RC, Brown GDA, Mill AID, Culter A (1981). "Slips of the tongue in the London–Lund corpus of spontaneous conversation" (http://dare.ubn.kun.nl/bitstream/2066/156 15/1/6017.pdf) (PDF). Linguistics. 19 (7–8): 805–817. doi:10.1515/ling.1981.19.7-8.805 (http s://doi.org/10.1515%2Fling.1981.19.7-8.805). hdl:11858/00-001M-0000-0013-33D0-4 (https://h dl.handle.net/11858%2F00-001M-0000-0013-33D0-4). S2CID 144105729 (https://api.semantic scholar.org/CorpusID:144105729). 3. Oldfield RC, Wingfield A (1965). "Response latencies in naming objects". Quarterly Journal of Experimental Psychology. 17 (4): 273–281. doi:10.1080/17470216508416445 (https://doi.org/1 0.1080%2F17470216508416445). hdl:11858/00-001M-0000-002C-17D2-8 (https://hdl.handle.n et/11858%2F00-001M-0000-002C-17D2-8). PMID 5852918 (https://pubmed.ncbi.nlm.nih.gov/5 852918). S2CID 9567809 (https://api.semanticscholar.org/CorpusID:9567809). 4. Bird, H; Franklin, S; Howard, D (2001). "Age of acquisition and imageability ratings for a large set of words, including verbs and function words" (http://brm.psychonomic-journals.org/conten t/33/1/73.full.pdf) (PDF). Behavior Research Methods, Instruments, and Computers. 33 (1): 73–9. doi:10.3758/BF03195349 (https://doi.org/10.3758%2FBF03195349). PMID 11296722 (ht tps://pubmed.ncbi.nlm.nih.gov/11296722). 5. Weinberg, Bernd; Westerhouse, Jan (1971). "A Study of Buccal Speech". Journal of Speech and Hearing Research. American Speech Language Hearing Association. 14 (3): 652–658. doi:10.1044/jshr.1403.652 (https://doi.org/10.1044%2Fjshr.1403.652). ISSN 0022-4685 (http s://www.worldcat.org/issn/0022-4685). PMID 5163900 (https://pubmed.ncbi.nlm.nih.gov/51639 00). also published as Weinberg, B.; Westerhouse, J. (1972). "A Study of Buccal Speech" (http s://doi.org/10.1121%2F1.1981697). The Journal of the Acoustical Society of America. Acoustical Society of America (ASA). 51 (1A): 91. Bibcode:1972ASAJ...51Q..91W (https://ui.ad sabs.harvard.edu/abs/1972ASAJ...51Q..91W). doi:10.1121/1.1981697 (https://doi.org/10.112 1%2F1.1981697). ISSN 0001-4966 (https://www.worldcat.org/issn/0001-4966). 6. McNeill D (2005). Gesture and Thought. University of Chicago Press. ISBN 978-0-226-514635. 7. Harley, T.A. (2011), Psycholinguistics. (Volume 1). SAGE Publications. 8. Levelt, WJM (1989). Speaking: From Intention to Articulation. MIT Press. ISBN 978-0-26262089-5. 9. Jescheniak, JD; Levelt, WJM (1994). "Word frequency effects in speech production: retrieval of syntactic information and of phonological form". Journal of Experimental Psychology: Learning, Memory, and Cognition. 20 (4): 824–843. CiteSeerX 10.1.1.133.3919 (https://citeseerx.ist.psu. edu/viewdoc/summary?doi=10.1.1.133.3919). doi:10.1037/0278-7393.20.4.824 (https://doi.org/ 10.1037%2F0278-7393.20.4.824). S2CID 26291682 (https://api.semanticscholar.org/CorpusI D:26291682). 10. Levelt, W. (1999). "The neurocognition of language", p.87 -117. Oxford Press 11. Indefrey, P; Levelt, WJ (2004). "The spatial and temporal signatures of word production components". Cognition. 92 (1–2): 101–44. doi:10.1016/j.cognition.2002.06.001 (https://doi.or g/10.1016%2Fj.cognition.2002.06.001). hdl:11858/00-001M-0000-0013-1C1F-E (https://hdl.ha ndle.net/11858%2F00-001M-0000-0013-1C1F-E). PMID 15037128 (https://pubmed.ncbi.nlm.ni h.gov/15037128). S2CID 12662702 (https://api.semanticscholar.org/CorpusID:12662702). 12. Booth, JR; Wood, L; Lu, D; Houk, JC; Bitan, T (2007). "The role of the basal ganglia and cerebellum in language processing" (https://www.ncbi.nlm.nih.gov/pmc/articles/PMC2424405). Brain Research. 1133 (1): 136–44. doi:10.1016/j.brainres.2006.11.074 (https://doi.org/10.101 6%2Fj.brainres.2006.11.074). PMC 2424405 (https://www.ncbi.nlm.nih.gov/pmc/articles/PMC2 424405). PMID 17189619 (https://pubmed.ncbi.nlm.nih.gov/17189619). 13. Ackermann, H (2008). "Cerebellar contributions to speech production and speech perception: psycholinguistic and neurobiological perspectives". Trends in Neurosciences. 31 (6): 265–72. doi:10.1016/j.tins.2008.02.011 (https://doi.org/10.1016%2Fj.tins.2008.02.011). PMID 18471906 (https://pubmed.ncbi.nlm.nih.gov/18471906). S2CID 23476697 (https://api.semanticscholar.or g/CorpusID:23476697). 14. Fromkin, Victoria; Bernstein, Nan (1998). Speech Production Processing Models. Harcourt Brace College. p. 327. ISBN 978-0155041066. 15. Fromkin, Victoria; Berstien Ratner, Nan (1998). Chapter 7 Speech Production. Harcourt Brace College. pp. 322–327. ISBN 978-0155041066. 16. Field, John (2004). Psycholinguistics. Routledge. p. 284. ISBN 978-0415258906. 17. Fromkin, Victoria; Berstein, Nan (1998). Speech Production Processing Models. p. 328. ISBN 978-0155041066. 18. Fromkin, Victoria; Bernstein Ratner, Nan (1998). Chapter 7 Speech Production (Second ed.). Florida: Harcourt Brace College Publishers. pp. 328–337. ISBN 978-0155041066. 19. Fromkin, Victoria (1971). Utterance Generator Model of Speech Production in Psycholinguistics (2 ed.). Harcourt College Publishers. p. 328. ISBN 978-0155041066. 20. Fromkin, Victoria (1998). Utterance Generator Model of Speech Production in Psycholinguistics (2 ed.). Harcourt. p. 330. 21. Garrett (1975). The Garrett Model in Psycho-linguistics. Harcourt College. p. 331. ISBN 9780155041066. 22. Butterworth (1982). Psycho-linguistics. Harcourt College. p. 331. 23. Fromkin, Victoria; Berstein, Nan (1998). The Garret Model in Psycho-linguistics. Harcourt College. p. 331. ISBN 978-0155041066. 24. Garrett; Fromkin, V.A.; Ratner, N.B (1998). The Garrett Model in Psycho-linguistics. Harcourt College. p. 331. 25. "Psycholinguistics/Models of Speech Production - Wikiversity" (https://en.wikiversity.org/wiki/Ps ycholinguistics/Models_of_Speech_Production). en.wikiversity.org. Retrieved 2015-11-16. 26. Dell, G.S. (1997). Analysis of Sentence Production (https://archive.org/details/psychologyoflear 0000unse_e2t0/page/133). Psychology of Learning and Motivation. Vol. 9. pp. 133–177 (http s://archive.org/details/psychologyoflear0000unse_e2t0/page/133). doi:10.1016/S00797421(08)60270-4 (https://doi.org/10.1016%2FS0079-7421%2808%2960270-4). ISBN 9780125433099. 27. Levelt, Willem J.M (1999). "Models of Word Production". Trends in Cognitive Sciences. 3 (6): 223–232. doi:10.1016/S1364-6613(99)01319-4 (https://doi.org/10.1016%2FS1364-6613%289 9%2901319-4). PMID 10354575 (https://pubmed.ncbi.nlm.nih.gov/10354575). S2CID 7939521 (https://api.semanticscholar.org/CorpusID:7939521). 28. Keren, Rice (2011). Consonantal Place of Articulation. John Wily & Sons Inc. pp. 519–549. ISBN 978-1-4443-3526-2. 29. Harrison, Allen. E (2011). Speech Disorders : Causes, Treatments, and Social Effects. New York: Nova Science Publishers. ISBN 9781608762132. 30. Field, John (2004). Psycholinguistics The Key Concepts. Routledge. pp. 18–19. ISBN 9780415258906. 31. Rebecca Hughes; Beatrice Szczepek Reed (2016). Teaching and Researching Speaking: Third Edition (https://books.google.com/books?id=cC4lDwAAQBAJ&pg=PA6). Taylor & Francis. pp. 6+. ISBN 978-1-317-43299-9. 32. Redford, M. A. (2015). The handbook of speech production. Chichester, West Sussex; Malden, MA : John Wiley & Sons, Ltd, 2015. 33. Shaffer, D., Wood, E., & Willoughby, T. (2005). Developmental Psychology Childhood and Adolescence. (2nd Canadian Ed). Nelson. 34. Wolf, M. (2005). Proust and the squid:The story and science of the reading brain, New York, NY. Harper Further reading Gow DW (June 2012). "The cortical organization of lexical knowledge: a dual lexicon model of spoken language processing" (https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3348354). Brain Lang. 121 (3): 273–88. doi:10.1016/j.bandl.2012.03.005 (https://doi.org/10.1016%2Fj.bandl.20 12.03.005). PMC 3348354 (https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3348354). PMID 22498237 (https://pubmed.ncbi.nlm.nih.gov/22498237). Hickok G (2012). "The cortical organization of speech processing: feedback control and predictive coding the context of a dual-stream model" (https://www.ncbi.nlm.nih.gov/pmc/article s/PMC3468690). J Commun Disord. 45 (6): 393–402. doi:10.1016/j.jcomdis.2012.06.004 (http s://doi.org/10.1016%2Fj.jcomdis.2012.06.004). PMC 3468690 (https://www.ncbi.nlm.nih.gov/p mc/articles/PMC3468690). PMID 22766458 (https://pubmed.ncbi.nlm.nih.gov/22766458). Hickok G, Houde J, Rong F (February 2011). "Sensorimotor integration in speech processing: computational basis and neural organization" (https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3 057382). Neuron. 69 (3): 407–22. doi:10.1016/j.neuron.2011.01.019 (https://doi.org/10.1016% 2Fj.neuron.2011.01.019). PMC 3057382 (https://www.ncbi.nlm.nih.gov/pmc/articles/PMC30573 82). PMID 21315253 (https://pubmed.ncbi.nlm.nih.gov/21315253). Hickok G, Poeppel D (2004). "Dorsal and ventral streams: a framework for understanding aspects of the functional anatomy of language". Cognition. 92 (1–2): 67–99. doi:10.1016/j.cognition.2003.10.011 (https://doi.org/10.1016%2Fj.cognition.2003.10.011). PMID 15037127 (https://pubmed.ncbi.nlm.nih.gov/15037127). S2CID 635860 (https://api.sema nticscholar.org/CorpusID:635860). Poeppel D, Emmorey K, Hickok G, Pylkkänen L (October 2012). "Towards a new neurobiology of language" (https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3495005). J. Neurosci. 32 (41): 14125–31. doi:10.1523/JNEUROSCI.3244-12.2012 (https://doi.org/10.1523%2FJNEUROSCI. 3244-12.2012). PMC 3495005 (https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3495005). PMID 23055482 (https://pubmed.ncbi.nlm.nih.gov/23055482). Price CJ (August 2012). "A review and synthesis of the first 20 years of PET and fMRI studies of heard speech, spoken language and reading" (https://www.ncbi.nlm.nih.gov/pmc/articles/PM C3398395). NeuroImage. 62 (2): 816–47. doi:10.1016/j.neuroimage.2012.04.062 (https://doi.or g/10.1016%2Fj.neuroimage.2012.04.062). PMC 3398395 (https://www.ncbi.nlm.nih.gov/pmc/a rticles/PMC3398395). PMID 22584224 (https://pubmed.ncbi.nlm.nih.gov/22584224). Stout D, Chaminade T (January 2012). "Stone tools, language and the brain in human evolution" (https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3223784). Philos. Trans. R. Soc. Lond. B Biol. Sci. 367 (1585): 75–87. doi:10.1098/rstb.2011.0099 (https://doi.org/10.1098%2Fr stb.2011.0099). PMC 3223784 (https://www.ncbi.nlm.nih.gov/pmc/articles/PMC3223784). PMID 22106428 (https://pubmed.ncbi.nlm.nih.gov/22106428). Kroeger BJ, Stille C, Blouw P, Bekolay T, Stewart TC (November 2020) "Hierarchical sequencing and feedforward and feedback control mechanisms in speech production: A preliminary approach for modeling normal and disordered speech" (https://www.frontiersin.org/ articles/10.3389/fncom.2020.573554/full) Frontiers in Computational Neuroscience 14:99 doi=10.3389/fncom.2020.573554 (https://www.frontiersin.org/articles/10.3389/fncom.2020.573 554/full) Retrieved from "https://en.wikipedia.org/w/index.php?title=Speech_production&oldid=1146998972"